OpenAI AI Belajar Menulis Puisi, Artikel, dan Berita



Terlepas dari kenyataan bahwa chatbots masih tidak mendukung percakapan dengan orang terlalu baik (meskipun mereka terus-menerus membaik dalam hal ini), mereka bekerja lebih baik dengan teks. Anda dapat memverifikasi pernyataan ini dengan bantuan aplikasi web, yang dasarnya adalah kecerdasan buatan (bentuknya yang lemah).

Jadi, jika pengguna mulai menulis artikel berita, bot dapat melengkapinya. Juga, teknologi yang relatif baik mendukung "komunikasi" dengan seseorang melalui korespondensi. Jika Anda bertanya "Apa yang harus saya lakukan hari ini?", Program akan memberikan jawaban yang sepenuhnya dapat dipahami. Ada juga solusi dalam bentuk layanan web, ini adalah TalkToTransformer.com .



Dirancang oleh insinyur Kanada Adam King. Perlu dicatat bahwa ia menciptakan bagian eksternal dari layanan, tetapi berdasarkan itu adalah AI yang dikembangkan oleh organisasi penelitian OpenAI. Awal tahun ini, OpenAI memperkenalkan sistem AI bahasanya sendiri, GPT-2, dan TalkToTransformer adalah kesempatan untuk mencoba sistem ini.

Sebelumnya, itu hanya tersedia untuk menguji ilmuwan dan jurnalis yang dipilih oleh pengembang. Suatu layanan disebut "Transformer" sesuai dengan jenis jaringan saraf yang mendasari GPT-2 .



Jika Anda ingin berkenalan dengan kemampuan bahasa AI, maka tidak ada pilihan yang lebih baik daripada TalkToTransformer. Layanannya cukup fleksibel. Itu dapat mengenali sejumlah besar jenis informasi tekstual, termasuk resep, kode program, lirik, dll. Dia juga tahu bagaimana mengidentifikasi para pahlawan dari berbagai karya sastra, termasuk "Harry Potter" dan The Lord of the Rings.

Pada saat yang sama, kemungkinan sistem terbatas - ia tidak tahu bagaimana "berpikir" dalam skala besar, tetapi bertindak secara dangkal. Teks-teks yang ditulis AI dapat memiliki alur cerita, pahlawan (jika itu cerita). Tetapi semua ini tidak terhubung secara logis, yaitu, para pahlawan muncul dan menghilang, dan tindakan mereka acak.

Dialog dibangun di atas prinsip acak yang sama. Jika dialog lebih atau kurang harmonis, maka ini lebih merupakan kasus daripada kemampuan layanan. Namun, bentuk AI yang lebih sederhana cukup baik. Pekerjaan sedang dilakukan dengan mengorbankan sumber jaringan dan tempat-tempat lain.

Sebelumnya di Habré dilaporkan bahwa GPT-2 dilatih di halaman Internet biasa (sekitar 8 juta situs, 40 GB teks). Pemilihan sumber pelatihan termasuk situs yang memiliki peringkat bagus pada reddit - ini dilakukan untuk mencegah spamming dan sumber daya iklan dari menyumbat sumber data.

Saat membentuk dialog, Anda harus mengirimkan awal frasa. Misalnya, "Mars adalah ...", setelah itu sistem melengkapi kalimat. Jaringan dapat memberikan jawaban tanpa pelatihan tambahan khusus untuk tugas tertentu.


Source: https://habr.com/ru/post/id452304/


All Articles