Sistem AI dengan 'risiko tidak dapat diterima' kini dilarang di UE

Pada hari Minggu di Uni Eropa, regulator blok tersebut dapat melarang penggunaan sistem AI yang mereka anggap menimbulkan 'risiko tidak dapat diterima' atau merugikan.

2 Februari adalah batas kepatuhan pertama untuk Undang-Undang AI UE, kerangka regulasi AI komprehensif yang akhirnya disetujui oleh Parlemen Eropa Maret lalu setelah bertahun-tahun pengembangan. Undang-Undang tersebut resmi mulai berlaku 1 Agustus; yang sekarang mengikuti adalah batas kepatuhan pertama.

Spesifikasinya dijelaskan dalam Pasal 5, tetapi secara umum, Undang-Undang tersebut dirancang untuk mencakup berbagai kasus penggunaan di mana AI mungkin muncul dan berinteraksi dengan individu, mulai dari aplikasi konsumen hingga lingkungan fisik.

Di bawah pendekatan blok tersebut, ada empat tingkat risiko yang luas: (1) Risiko minimal (misalnya, penyaring spam email) tidak akan diawasi secara regulasi; (2) risiko terbatas, yang termasuk chatbot layanan pelanggan, akan memiliki pengawasan regulasi yang ringan; (3) risiko tinggi — AI untuk rekomendasi kesehatan adalah satu contohnya — akan menghadapi pengawasan regulasi yang ketat; dan (4) aplikasi risiko tidak dapat diterima — fokus pada persyaratan kepatuhan bulan ini — akan dilarang sepenuhnya.

Beberapa kegiatan yang tidak dapat diterima termasuk:

  • AI digunakan untuk penilaian sosial (misalnya, membangun profil risiko berdasarkan perilaku seseorang).
  • AI yang memanipulasi keputusan seseorang secara subliminal atau menipu.
  • AI yang mengeksploitasi kerentanan seperti usia, cacat, atau status sosial ekonomi.
  • AI yang berusaha untuk memprediksi orang yang melakukan kejahatan berdasarkan penampilan mereka.
  • AI yang menggunakan biometrik untuk menyimpulkan karakteristik seseorang, seperti orientasi seksual mereka.
  • AI yang mengumpulkan data biometrik "real time" di tempat umum untuk tujuan penegakan hukum.
  • AI yang mencoba untuk menyimpulkan emosi orang di tempat kerja atau sekolah.
  • AI yang membuat — atau memperluas — basis data pengenalan wajah dengan mengambil gambar online atau dari kamera keamanan.

Perusahaan yang terbukti menggunakan aplikasi AI di atas di UE akan dikenakan denda, tidak peduli di mana markas mereka. Mereka bisa dikenakan denda hingga €35 juta (~$36 juta), atau 7% dari pendapatan tahunan dari tahun fiskal sebelumnya, mana yang lebih tinggi.

Para denda tidak akan berlaku untuk sementara waktu, perhatikan Rob Sumroy, kepala teknologi di firma hukum Inggris Slaughter and May, dalam wawancara dengan TechCrunch.

“Organisasi diharapkan untuk sepenuhnya patuh pada tanggal 2 Februari, tetapi... batas waktu besar berikutnya yang perusahaan perlu sadari adalah pada bulan Agustus,” kata Sumroy. “Pada saat itu, kita akan tahu siapa otoritas yang berkompeten, dan denda serta ketentuan penegakan hukum akan berlaku.”

Janji Awal

Batas waktu 2 Februari dalam beberapa cara adalah sebuah formalitas.

September lalu, lebih dari 100 perusahaan menandatangani Pakta AI UE, sebuah sumpah sukarela untuk mulai menerapkan prinsip-prinsip Undang-Undang AI sebelum hari penerapannya. Sebagai bagian dari Pakta, pihak yang menandatangani — yang termasuk Amazon, Google, dan OpenAI — berkomitmen untuk mengidentifikasi sistem AI yang kemungkinan akan dikategorikan sebagai risiko tinggi di bawah Undang-Undang AI.

Beberapa raksasa teknologi, terutama Meta dan Apple, melewati Pakta. Perusahaan rintisan AI Prancis Mistral, salah satu kritikus terberat Undang-Undang AI, juga memilih untuk tidak menandatangani.

Bukan berarti bahwa Apple, Meta, Mistral, atau yang lain yang tidak setuju dengan Pakta tidak akan memenuhi kewajiban mereka — termasuk larangan terhadap sistem berisiko tidak dapat diterima. Sumroy menunjukkan bahwa, mengingat sifat kasus penggunaan yang dilarang, kebanyakan perusahaan tidak akan terlibat dalam praktik-praktik tersebut sama sekali.

“Bagi organisasi, kekhawatiran utama seputar Undang-Undang AI UE adalah apakah panduan, standar, dan kode etik yang jelas akan tiba tepat waktu — dan terutama, apakah mereka akan memberikan organisasi kejelasan dalam hal kepatuhan,” kata Sumroy. “Bagaimanapun, kelompok kerja, sejauh ini, memenuhi tenggat waktunya pada kode etik untuk... pengembang.”

Pengecualian Kemungkinan

Ada pengecualian untuk beberapa larangan Undang-Undang AI.

Sebagai contoh, Undang-Undang tersebut mengizinkan penegak hukum untuk menggunakan sistem tertentu yang mengumpulkan biometrik di tempat umum jika sistem tersebut membantu melakukan "penelusuran tertarget" misalnya, untuk korban penculikan, atau untuk membantu mencegah ancaman "khusus, besar, dan mendesak" terhadap kehidupan. Pengecualian ini membutuhkan otorisasi dari lembaga yang berwenang, dan Undang-Undang menekankan bahwa penegak hukum tidak boleh membuat keputusan yang “menghasilkan efek hukum yang merugikan” pada seseorang semata-mata berdasarkan keluaran sistem ini.

Undang-Undang tersebut juga memberikan pengecualian untuk sistem yang menyimpulkan emosi di tempat kerja dan sekolah yang memiliki justifikasi “kedokteran atau keamanan,” seperti sistem yang dirancang untuk digunakan secara terapeutik.

Komisi Eropa, cabang eksekutif UE, mengatakan bahwa akan merilis panduan tambahan pada “awal 2025,” setelah berkonsultasi dengan pemangku kepentingan pada November. Namun, panduan tersebut belum dipublikasikan.

Sumroy mengatakan juga tidak jelas bagaimana hukum lain yang ada akan berinteraksi dengan larangan Undang-Undang AI dan ketentuan terkait. Kekaburan mungkin tidak akan datang sampai akhir tahun, saat jendela penegakan hukum mendekati.

“Penting bagi organisasi untuk diingat bahwa regulasi AI tidak eksis dalam isolasi,” kata Sumroy. “Kerangka hukum lain, seperti GDPR, NIS2, dan DORA, akan berinteraksi dengan Undang-Undang AI, menciptakan tantangan potensial — terutama seputar persyaratan pemberitahuan insiden yang tumpang tindih. Memahami bagaimana hukum-hukum ini saling berhubungan akan sama pentingnya dengan memahami Undang-Undang AI itu sendiri.”