Tanda tangan atau tolak: Apa yang akan terjadi selanjutnya untuk RUU bencana AI California, SB 1047?

Sebuah RUU kontroversial California untuk mencegah bencana AI, SB 1047, telah lolos voting akhir di Senat negara bagian dan sekarang menuju ke meja Gubernur Gavin Newsom. Dia harus mempertimbangkan risiko teoritis paling ekstrim dari sistem AI - termasuk peran potensialnya dalam kematian manusia - terhadap kemungkinan menghentikan pelonjakan AI California. Dia memiliki waktu hingga 30 September untuk menandatangani SB 1047 menjadi undang-undang, atau menolaknya sama sekali.

Diperkenalkan oleh senator negara bagian Scott Wiener, SB 1047 bertujuan untuk mencegah kemungkinan model AI yang sangat besar menciptakan peristiwa bencana, seperti hilangnya nyawa atau serangan siber yang merugikan lebih dari $500 juta.

Untuk jelasnya, sangat sedikit model AI yang ada hari ini yang cukup besar untuk dicakup oleh RUU ini, dan AI belum pernah digunakan untuk serangan siber dalam skala ini. Tetapi RUU ini membahas masa depan model AI, bukan masalah yang ada hari ini.

SB 1047 akan membuat pengembang model AI bertanggung jawab atas dampak buruk yang dihasilkan - seperti membuat produsen senjata bertanggung jawab atas penembakan massal - dan akan memberikan kekuasaan kepada jaksa agung California untuk menuntut perusahaan AI dengan denda berat jika teknologi mereka digunakan dalam peristiwa bencana. Jika sebuah perusahaan berperilaku sembrono, pengadilan dapat memerintahkan mereka untuk menghentikan operasi; model yang dicakup juga harus memiliki "tombol off" yang memungkinkan mereka dimatikan jika dianggap berbahaya.

RUU ini bisa membentuk ulang industri AI Amerika, dan hanya tinggal selangkah lagi dari menjadi undang-undang. Berikut adalah bagaimana masa depan SB 1047 bisa berjalan.

Mengapa Newsom mungkin menandatanganinya

Wiener berpendapat bahwa Silicon Valley memerlukan lebih banyak tanggung jawab, sebelumnya mengatakan kepada TechCrunch bahwa Amerika harus belajar dari kegagalan masa lalu dalam mengatur teknologi. Newsom mungkin termotivasi untuk bertindak tegas dalam regulasi AI dan meminta pertanggungjawaban dari Big Tech.

Sejumlah eksekutif AI telah muncul sebagai optimis dengan hati-hati mengenai SB 1047, termasuk Elon Musk.

Optimis hati-hati lainnya tentang SB 1047 adalah mantan kepala pejabat AI Microsoft, Sophia Velastegui. Dia memberitahu TechCrunch bahwa "SB 1047 adalah kompromi yang baik," sambil mengakui bahwa RUU ini tidak sempurna. "Saya pikir kita memerlukan sebuah kantor AI yang bertanggung jawab untuk Amerika, atau negara mana pun yang bekerja dengannya. Itu tidak boleh hanya Microsoft saja," kata Velastegui.

Antropik adalah pendukung hati-hati lainnya dari SB 1047, meskipun perusahaan tersebut belum mengambil posisi resmi tentang RUU ini. Beberapa perubahan yang disarankan oleh startup tersebut telah ditambahkan ke SB 1047, dan CEO Dario Amodei sekarang mengatakan bahwa "manfaat RUU ini kemungkinan lebih besar daripada biayanya" dalam sebuah surat kepada gubernur California. Berkat amandemen dari Anthropic, perusahaan AI hanya dapat dituntut setelah model AI mereka menyebabkan beberapa kerugian bencana, bukan sebelumnya, seperti yang disebutkan dalam versi sebelumnya dari SB 1047.

Mengapa Newsom mungkin menolaknya

Mengingat tentangan keras industri terhadap RUU ini, tidak mengherankan jika Newsom menolaknya. Jika dia menandatanganinya, dia akan menggantung reputasinya pada SB 1047, tetapi jika dia menolak, dia bisa menunda keputusan ini setahun lagi atau membiarkan Kongres menanganinya.

"Ini [SB 1047] mengubah preseden dalam penanganan kebijakan perangkat lunak yang telah dilakukan selama 30 tahun ini," berpendapat mitra umum Andreessen Horowitz, Martin Casado dalam sebuah wawancara dengan TechCrunch. "Ini mengalihkan tanggung jawab dari aplikasi, dan menerapkannya pada infrastruktur, yang belum pernah kita lakukan sebelumnya."

Industri teknologi telah merespons dengan keras menentang SB 1047. Bersama dengan a16z, Speaker Nancy Pelosi, OpenAI, kelompok perdagangan Big Tech, dan para peneliti AI terkemuka juga mendorong Newsom untuk tidak menandatangani RUU ini. Mereka khawatir bahwa pergeseran paradigma mengenai tanggung jawab ini akan memiliki efek membekukan inovasi AI California.

Efek membekukan bagi ekonomi startup adalah hal terakhir yang diinginkan siapapun. Pelonjakan AI telah menjadi stimulus besar bagi ekonomi Amerika, dan Newsom sedang berhadapan dengan tekanan untuk tidak menyia-nyiakan hal itu. Bahkan U.S. Chamber of Commerce telah meminta Newsom untuk menolak RUU ini, mengatakan bahwa "AI adalah dasar pertumbuhan ekonomi Amerika," dalam sebuah surat kepada beliau.

Jika SB 1047 menjadi undang-undang

Jika Newsom menandatangani RUU tersebut, tidak akan terjadi apa-apa pada hari pertama, kata sumber yang terlibat dalam penyusunan SB 1047 kepada TechCrunch.

Pada 1 Januari 2025, perusahaan teknologi harus menulis laporan keamanan untuk model AI mereka. Pada titik ini, jaksa agung California bisa meminta perintah injunctive, yang mengharuskan sebuah perusahaan AI untuk menghentikan pelatihan atau operasi model AI mereka jika pengadilan menyatakan mereka berbahaya.

Pada tahun 2026, lebih banyak aspek RUU ini mulai berlaku. Pada saat itu, Dewan Model Frontier akan dibentuk dan mulai mengumpulkan laporan keamanan dari perusahaan teknologi. Dewan sembilan orang, dipilih oleh gubernur dan legislator California, akan memberikan rekomendasi kepada jaksa agung California tentang perusahaan mana yang mematuhi dan tidak mematuhi.

Pada tahun yang sama, SB 1047 juga akan menuntut pengembang model AI untuk mempekerjakan pemeriksa untuk menilai praktik keamanan mereka, efektif menciptakan industri baru untuk kepatuhan keamanan AI. Dan jaksa agung California akan bisa mulai menuntut pengembang model AI jika alat mereka digunakan dalam peristiwa bencana.

Pada 2027, Dewan Model Frontier bisa mulai memberikan panduan kepada pengembang model AI tentang bagaimana cara melatih dan mengoperasikan model AI dengan aman dan aman.

Jika SB 1047 ditolak

Jika Newsom menolak SB 1047, keinginan OpenAI akan terwujud, dan regulator federal kemungkinan besar akan mengambil peran dalam mengatur model AI... suatu saat nanti.

Pada hari Kamis, OpenAI dan Anthropic meletakkan pondasi tentang bagaimana regulasi AI federal akan terlihat. Mereka setuju untuk memberikan akses awal kepada AI Safety Institute, sebuah badan federal, untuk model AI canggih mereka, menurut rilis pers. Pada saat yang bersamaan, OpenAI telah memberikan dukungan terhadap sebuah RUU yang akan memungkinkan AI Safety Institute menetapkan standar untuk model AI.

"Dari banyak alasan, kami pikir penting agar ini terjadi pada tingkat nasional," tulis CEO OpenAI, Sam Altman dalam sebuah tweet pada hari Kamis.

Membaca di antara baris-baris, lembaga federal biasanya menghasilkan regulasi teknologi yang kurang memberatkan daripada yang dilakukan California dan memerlukan waktu yang lebih lama untuk melakukannya. Tetapi lebih dari itu, Silicon Valley secara historis telah menjadi mitra taktis dan bisnis yang penting bagi pemerintah Amerika Serikat.

"Sebenarnya ada sejarah panjang sistem komputer terbaik yang bekerja dengan pihak federal," kata Casado. "Ketika saya bekerja di lab nasional, setiap kali superkomputer baru keluar, versi pertama akan langsung pergi ke pemerintah. Kami melakukannya agar pemerintah memiliki kemampuan, dan saya pikir itu adalah alasan yang lebih baik daripada untuk pengujian keselamatan."