Selama beberapa bulan sekarang, Google telah berjuang dengan Microsoft dan Amazon untuk
kontrak multi-juta dolar Pentagon untuk layanan cloud dan sistem kecerdasan buatan (lihat
bocoran korespondensi internal para manajer puncak ). Sayangnya untuk panduan, tongkat dimasukkan ke roda ... oleh karyawan kita sendiri. Pada bulan Maret 2018, mereka mulai
mengumpulkan tanda tangan terhadap perkembangan teknologi militer di Google, yang
sebelumnya memiliki prinsip "Don't be evil" sebagai moto utamanya.
Manajemen harus membuat sebagian konsesi. Kemarin, Sundar Pichai, CEO,
mengumumkan serangkaian prinsip yang dijanjikan Google untuk terus dipatuhi. Diantaranya adalah larangan penggunaan perkembangan internal di bidang Inteligensi Buatan untuk senjata, pengawasan ilegal dan teknologi yang menyebabkan "bahaya bersama". Namun Google akan terus berkolaborasi dengan militer di bidang lain. Dengan demikian, divisi cloud masih mempertahankan peluang memenangkan tender.
UAV militer AmerikaSundar Pichai menulis di blog resmi bahwa Google banyak berinvestasi dalam penelitian dan pengembangan AI, membuat teknologi ini dapat diakses secara luas oleh semua orang menggunakan alat dan sumber terbuka. βKami menyadari bahwa teknologi sekuat itu menimbulkan pertanyaan yang sama seriusnya tentang penggunaannya. Cara AI dikembangkan dan digunakan akan memiliki dampak signifikan pada masyarakat selama bertahun-tahun yang akan datang, kata CEO. "Sebagai pemimpin dalam AI, kami merasakan tanggung jawab yang mendalam." Karena itu, hari ini kami mengumumkan tujuh prinsip kerja kami. Ini bukan konsep teoritis; ini adalah standar khusus yang akan secara aktif mengelola penelitian dan pengembangan produk kami dan akan memengaruhi keputusan bisnis kami. "
Jadi, berikut adalah tujuh prinsip AI Google dalam bentuk singkat.
1. Manfaat sosial
Prestasi dalam AI akan memiliki dampak transformatif di berbagai bidang, termasuk kesehatan, keamanan, energi, transportasi, manufaktur, dan hiburan. Mempertimbangkan potensi pengembangan dan penggunaan teknologi AI, perusahaan akan mempertimbangkan berbagai faktor sosial dan ekonomi dan akan bertindak di mana manfaat yang mungkin secara keseluruhan jauh melebihi risiko dan kerugian yang diproyeksikan.
2. Memerangi diskriminasi
Algoritma dan dataset AI dapat mencerminkan, memperkuat, atau mengurangi diskriminasi. Google mengakui bahwa membedakan hanya dari prasangka tidak adil tidak selalu mudah dan berbeda dalam budaya dan masyarakat yang berbeda. Perusahaan berjanji untuk "berusaha menghindari konsekuensi yang tidak adil bagi orang-orang, terutama yang terkait dengan karakteristik sensitif seperti ras, etnis, jenis kelamin, kebangsaan, pendapatan, orientasi seksual, kemampuan, dan keyakinan politik atau agama."
3. Keamanan
Sistem kecerdasan buatan Google akan "dijaga secara memadai" dan dirancang "sesuai dengan praktik terbaik di bidang penelitian keamanan kecerdasan buatan."
4. Akuntabilitas
Sistem AI akan memberikan peluang yang tepat untuk umpan balik, penjelasan yang relevan dari tindakan mereka dan kemungkinan banding. Manusia akan memegang kendali atas mereka.
5. Prinsip privasi
Google berjanji untuk menggunakan prinsip privasi dalam pengembangan dan penggunaan teknologi AI, serta untuk memastikan transparansi dan kontrol yang tepat atas penggunaan data.
6. Standar tinggi keunggulan ilmiah
Inovasi teknologi muncul dari metode ilmiah dan komitmen untuk penyelidikan terbuka, ketelitian intelektual, integritas, dan kerja sama. Alat AI memiliki potensi untuk membuka bidang baru penelitian dan pengetahuan di bidang kritis seperti biologi, kimia, kedokteran, dan ilmu lingkungan. Google berjanji untuk mengupayakan standar tinggi keunggulan ilmiah, berbagi pengetahuan AI secara bertanggung jawab, menerbitkan materi pelatihan, praktik terbaik, dan penelitian yang memungkinkan lebih banyak orang untuk mengembangkan aplikasi AI yang bermanfaat.
7. Menyediakan teknologi AI hanya untuk mereka yang mematuhi prinsip-prinsip ini.
Banyak teknologi memiliki penggunaan ganda, termasuk AI. Google berjanji untuk bekerja membatasi aplikasi yang berpotensi berbahaya atau menyinggung, serta menilai kemungkinan penggunaannya.
Sundar Pichai mengutip daftar teknologi yang tidak dapat diterima oleh kecerdasan buatan Google.
- Teknologi yang menyebabkan atau dapat menyebabkan kerusakan umum.
- Senjata atau teknologi lainnya, tujuan utama atau implementasi di antaranya adalah untuk menyebabkan atau secara langsung mengurangi kerusakan pada manusia.
- Teknologi yang mengumpulkan atau menggunakan informasi pengawasan melanggar standar yang diakui secara internasional.
- Teknologi yang tujuannya bertentangan dengan prinsip-prinsip hukum internasional dan hak asasi manusia yang diakui secara universal.
Dalam beberapa hal, prinsip-prinsip ini menyerupai hukum robotika Asimov. Diharapkan bahwa perusahaan sistem AI lainnya juga akan secara resmi mengumumkan komitmen mereka terhadap prinsip-prinsip ini dan akan mematuhinya.