Pengembang OpenAI Akan Melatih AI dengan Reddit
CEO Nvidia Jen-San Huang menunjukkan DGX-1 kepada Ilon Mask, salah satu pendiri OpenAI OpenAI, sebuahorganisasi nirlaba open- source yang bergerak dalam penelitian di bidang kecerdasan buatan, menerima superkomputer DGX-1 dari Nvidia. Pakar OpenAI saat ini sedang mengerjakan bentuk AI yang “lemah”. Para ilmuwan sedang mengembangkan sistem yang dapat memproses sejumlah besar data primer, menghasilkan berbagai informasi terstruktur. Ini membutuhkan komputer yang kuat, dan DGX-1 adalah kompleks komputasi yang sangat kuat. Nvidia mengklaim bahwa DGX-1 didasarkan pada GPU generasi baru yang memberikan kecepatan pemrosesan data yang sebanding dengan server arsitektur 250 x86.Pencipta OpenAI adalah Elon Musk dan Sam Altman. Tujuan utama organisasi ini adalah untuk menarik para ilmuwan yang bekerja di bidang AI untuk berkolaborasi. Hasil penelitian ini direncanakan terbuka dan dapat diakses oleh semua pendatang. Menurut para pendiri, semua ini akan membantu mencegah munculnya kecerdasan buatan "jahat". Musk telah menyatakan ancaman ini berkali-kali.DGX-1 diposisikan sebagai superkomputer pembelajaran mendalam pertama di dunia dengan daya komputasi yang cukup untuk pengembangan AI. Menggunakan superkomputer ini, peneliti OpenAI akan dapat mempelajari bentuk lemah AI jauh lebih cepat daripada dengan server konvensional. Pada tahap pertama, AI akan diajarkan untuk memahami komunikasi teks orang. Sebuah harta karun pikiran dalam kasus ini akan berfungsi sebagai Reddit. Pesan sumber daya akan "memberi makan" AI, dan ia akan belajar untuk memahami hubungan antara kata-kata individual, kelompok dan kalimat mereka. Tugas ini rumit oleh fakta bahwa teks dengan Reddita dipenuhi dengan jargon, singkatan, ini bukan teks akademik.Andrej Karpathy, seorang peneliti OpenAI, mengatakan AI belajar mandiri akan menjadi lebih pintar dari waktu ke waktu. “Pembelajaran yang mendalam adalah kelas model yang khusus, karena semakin besar model itu sendiri, semakin baik kerjanya,” katanya.Bahasa tetap menjadi masalah penting bagi pengembang kecerdasan buatan. Dan meskipun banyak masalah telah diselesaikan, masih banyak yang harus diselesaikan. Belum lama ini, Google melakukan percobaan ketika sistem belajar mandiri dilatih menggunakan dialog dari film. Setelah beberapa waktu, ternyata AI memberikan jawaban yang cukup lumayan untuk pertanyaan yang relatif kompleks. Kadang-kadang upaya untuk membawa bentuk lemah AI dan orang-orang lebih dekat memberikan hasil yang tidak terduga. Pada bulan Maret tahun ini, Microsoft meluncurkandan di Twitter, bot remaja Tay, dan ia belajar buruk hanya dalam sehari. Setelah itu, karyawan Microsoft menganggap sebaiknya menghapus hampir semua pesan Tay dan mengirimnya untuk tidur.Ilmuwan OpenAI ingin memahami apakah robot dapat belajar bahasa dengan berinteraksi dengan orang-orang di dunia nyata. Percobaan dengan Reddit adalah langkah pertama dalam rangkaian percobaan yang dimaksud. Berkat DGX-1, pelatihan akan jauh lebih cepat dari yang direncanakan. AI dapat dilatih pada contoh susunan data yang lebih besar dari yang direncanakan. Selain teks, AI akan dilatih dengan coba-coba untuk melakukan sejumlah tindakan. Metode ini dapat digunakan untuk mengajarkan kecerdasan buatan untuk bermain video game. Mungkin dia akan dapat memahami bahwa akumulasi koin gim dalam sejumlah gim memungkinkan Anda meningkatkan jumlah poin yang diperoleh dan meningkatkan kemampuan karakter.
Mengapa semua ini perlu? Secara praktis, bentuk AI yang lemah dapat digunakan di banyak daerah. Misalnya, membuat robot yang mampu melakukan pekerjaan rumah tangga. Dan robot seperti itu akan bekerja lebih baik dan lebih baik dari waktu ke waktu, karena ia dapat belajar. Bentuk AI yang lemah juga diperlukan untuk meningkatkan kinerja mobil otonom yang saat ini sedang dikembangkan oleh sejumlah perusahaan, termasuk Google. Adapun bentuk AI yang kuat, di sini perlu ditakuti bahwa ia tidak mulai menggunakan orang untuk tujuannya sendiri, seperti yang berulang kali disebutkan Musk.Sejumlah peneliti mempertanyakan kelayakan misi OpenAI untuk menciptakan kecerdasan buatan yang "baik". Menurut perwakilan organisasi itu sendiri, ancaman menciptakan AI berbahaya diimbangi oleh fakta bahwa teknologi, hasil pengembangan dapat diakses oleh semua orang. Pada saat yang sama, Nick Bostrom, seorang ilmuwan dari Oxford, percaya bahwa keterbukaanlah yang dapat membawa hasil negatif. Fakta bahwa setiap orang berbagi hasil penelitian dengan semua orang, kata Bostrom, bisa menjadi masalah. "Jika Anda memiliki tombol" buat semua orang merasa buruk ", Anda tidak mungkin ingin membaginya dengan semua orang," kata Bostrom. Tetapi dalam kasus OpenAI, tombol ini akan tersedia untuk semua orang. Jika organisasi menyembunyikan hasil kerjanya, yang dianggap berbahaya, maka keberadaan OpenAI akan kehilangan maknanya, karena organisasi tidak akan lagi terbuka.Namun demikian, Bostrom percaya bahwa harus ada hasil positif. Hasil utama adalah penurunan kemungkinan mengendalikan superintelijen perusahaan dalam hal bentuk AI yang kuat. Memonopoli bentuk AI yang kuat itu buruk, dan OpenAI kemungkinan akan mengurangi kemungkinan perkembangan peristiwa semacam itu.Source: https://habr.com/ru/post/id396947/
All Articles