Mengapa Microsoft chatbot girl dipengaruhi oleh troll dengan 4chan
Seperti yang Anda tahu, kemarin Microsoft harus "menidurkan" chatbot Thay - program AI yang mensimulasikan gaya kepribadian dan percakapan seorang gadis Amerika berusia 19 tahun dan memiliki fungsi belajar mandiri. Pengembang dari harapan Microsoft Research yang Tay ( Tay ) setiap hari menjadi lebih cerdas, menyerap pengalaman berbicara dengan ribuan pengguna internet yang cerdas. Ternyata sangat berbeda. Banyak tweet yang harus dihapus karena rasisme yang terang-terangan dan secara politis salah.Diformulasikan kembali di tahun 90-an, hukum Godwin menyatakan: "Ketika diskusi di Usenet tumbuh, kemungkinan perbandingan dengan Nazisme atau Hitler cenderung bersatu." Dalam kasus Tay, ini terjadi: obrolan mulai menghina orang kulit hitam, Yahudi, Meksiko, dan memuliakan Hitler dan Holocaust. Gadis Thay telah berevolusi dari seorang remaja yang lucu menjadi seorang neo-Nazi militan. Perwakilan Microsoft mengatakan bahwa filter ekspresi vulgar telah dimasukkan ke dalam program, seperti yang dapat dilihat dari jawabannya:
Tetapi filter ini tidak mengatasi kerumunan troll internet yang mulai mengubah "identitas" Thay dengan mengoperasikan sistem belajar-mandiri-nya.Faktanya adalah bahwa chatbot diprogram untuk mengulangi kata-kata orang itu atas perintahnya. Berita itu dengan cepat menyebar melalui forum 4chan dan 8chan di bawah Politically Salah . Banyak troll dan hooligan mulai mengajarkan ungkapan rasis dan Nazi.
Sebagian besar tweet rasis Thay adalah jawaban tepat dalam game "Ulangi setelah aku", di mana dia kata demi kata mengulangi kata-kata pengguna.
Permainan "Ulangi setelah aku" bukanlah satu-satunya "kelemahan" Thay. Chatbots juga telah diprogram untuk melingkari wajah mereka di foto dan mempublikasikan teks di atasnya.
Gadis-gadis troll termasuk lebih banyak pengguna dari forum 4chan dan seterusnya. Perlahan-lahan, ekspresi rasis terserap ke dalam kecerdasan buatannya, jadi dia mulai menyusunnya sendiri.Perlu dicatat bahwa Microsoft meluncurkan chatbot otodidak yang serupa sebelumnya di Cina dan Jepang, tetapi tidak ada yang seperti itu yang diamati di sana.Akibatnya, obrolan harus ditidurkan.Selamat tinggal, Thay! Anda terlalu polos untuk dunia ini.Source: https://habr.com/ru/post/id392129/
All Articles