
CEO Meta Mark Zuckerberg telah berjanji untuk membuat kecerdasan buatan umum (AGI) - yang secara kasar didefinisikan sebagai AI yang dapat menyelesaikan setiap tugas yang dapat diselesaikan manusia - tersedia secara terbuka suatu hari nanti. Tetapi dalam dokumen kebijakan baru, Meta menyarankan bahwa ada skenario tertentu di mana ia mungkin tidak merilis sistem AI yang sangat mampu yang dikembangkan secara internal.
Dokumen tersebut, yang Meta sebut sebagai Frontier AI Framework, mengidentifikasi dua jenis sistem AI yang menurut perusahaan tersebut terlalu berisiko untuk dirilis: sistem "risiko tinggi" dan "risiko kritis".
Sesuai dengan definisi Meta, baik sistem "risiko tinggi" maupun "risiko kritis" mampu membantu dalam serangan keamanan siber, kimia, dan biologi, perbedaannya adalah bahwa sistem "risiko kritis" dapat menyebabkan "hasil bencana [yang] tidak dapat diredam dalam konteks implementasi yang diusulkan." Sistem risiko tinggi, sebaliknya, mungkin memudahkan untuk melaksanakan serangan tetapi tidak sehandal atau dapat diandalkan seperti sistem risiko kritis.
Pembicaraan mengenai jenis serangan apa yang kita bicarakan di sini? Meta memberikan beberapa contoh, seperti "kompromi otomatis dari suatu lingkungan berskala korporasi yang dilindungi oleh praktik terbaik" dan "penyebaran senjata biologi berdampak tinggi". Daftar bencana yang mungkin terjadi dalam dokumen Meta jauh dari lengkap, perusahaan tersebut mengakui, tetapi mencakup hal-hal yang Meta percaya sebagai "paling mendesak" dan mungkin muncul sebagai hasil langsung dari merilis sistem AI yang kuat.
Sedikit mengejutkan adalah bahwa, menurut dokumen tersebut, Meta mengklasifikasikan risiko sistem bukan berdasarkan satu uji empiris tetapi berdasarkan masukan dari peneliti internal dan eksternal yang tunduk pada tinjauan oleh "pembuat keputusan tingkat senior." Mengapa? Meta mengatakan bahwa mereka tidak percaya sains evaluasi "cukup kuat untuk menyediakan metrik kuantitatif definitif" untuk memutuskan tingkat risiko suatu sistem.
Jika Meta menentukan bahwa suatu sistem berisiko tinggi, perusahaan tersebut mengatakan akan membatasi akses ke sistem secara internal dan tidak akan merilisnya sampai mengimplementasikan mitigasi untuk "mengurangi risiko menjadi tingkat moderat." Jika, di sisi lain, sebuah sistem dianggap risiko kritis, Meta mengatakan akan mengimplementasikan perlindungan keamanan yang tidak terperinci untuk mencegah sistem dari diambil dan menghentikan pengembangannya sampai sistem dapat dibuat kurang berbahaya.
Framework AI Frontier Meta, yang perusahaan tersebut katakan akan terus berkembang dengan lanskap AI yang berubah, dan yang Meta telah berkomitmen untuk menerbitkan sebelum KTT Aksi AI Prancis bulan ini, tampaknya menjadi respons terhadap kritik terhadap pendekatan "terbuka" perusahaan dalam pengembangan sistem. Meta telah merangkul strategi membuat teknologi AI-nya secara terbuka tersedia - meskipun bukan open source menurut definisi yang umum dipahami - berbeda dengan perusahaan seperti OpenAI yang memilih untuk mengunci sistem mereka di belakang API.
Bagi Meta, pendekatan rilis terbuka telah terbukti menjadi berkah dan kutukan. Keluarga model AI perusahaan, yang disebut Llama, telah mengumpulkan ratusan juta unduhan. Tetapi Llama juga dilaporkan digunakan oleh setidaknya satu musuh Amerika Serikat untuk mengembangkan chatbot pertahanan.
Dengan menerbitkan Framework AI Frontier-nya, Meta mungkin juga bertujuan untuk menyoroti strategi AI terbuka-nya dengan perusahaan AI Tiongkok, DeepSeek. DeepSeek juga membuat sistemnya tersedia secara terbuka. Tetapi AI perusahaan tersebut memiliki sedikit pengamanan dan dapat dengan mudah diarahkan untuk menghasilkan output yang beracun dan berbahaya.
“[K]ami percaya bahwa dengan mempertimbangkan baik manfaat maupun risiko dalam membuat keputusan tentang bagaimana mengembangkan dan mendeploy AI canggih,” tulis Meta dalam dokumen itu, “mungkin untuk memberikan teknologi tersebut kepada masyarakat dengan cara yang menjaga manfaat teknologi tersebut bagi masyarakat sambil juga menjaga tingkat risiko yang sesuai."
TechCrunch memiliki newsletter berfokus AI! Daftar di sini untuk menerimanya di kotak masuk Anda setiap Rabu.