Pada Kamis, jaksa agung Florida James Uthmeierdiumumkankantornya sedang menyelidiki OpenAI terkait penembakan sekolah yang menewaskan korban tahun lalu, yang para korban mengklaim setidaknya sebagian dipengaruhi oleh percakapan dengan ChatGPT.
Pembunuhan yang terjadi di Florida State University hampir tepat setahun yang lalu, mengakibatkan kematian dua mahasiswa dan tujuh luka-luka.
AI seharusnya memajukan kemanusiaan, bukan menghancurkannya,” kata Uthmeier dalam pernyataannya. “Kami menuntut jawaban mengenai aktivitas OpenAI yang telah merugikan anak-anak, membahayakan warga Amerika, dan memfasilitasi pembunuhan massal di FSU belakangan ini.
Sebagai chatbot terus-menerus terlibat dalam kontroversi — dengan gugatan hukum yang menuduh pembuatnya memiliki alat tersebut berperan dalam sebuahgelombang bunuh diridanpembunuhandi tengahlaporan tentang “psikosis AI”” — OpenAI secara aktif mencoba untuk melepaskan diri dari tanggung jawab hukum.
SebagaiWiredlaporan, perusahaan mendukung sebuah undang-undang di Illinois yang akan melindungi perusahaan dari tanggung jawab dalam kasus di mana AI menyebabkan “kerugian kritis”, termasuk kematian massal, cedera lebih dari 100 orang, atau kerusakan properti lebih dari 1 miliar dolar.
Para ahli memperingatkan bahwa rancangan undang-undang ini, yang diberi nama SB 3444, bisa menjadi standar nasional bagi industri jika disahkan, sehingga perusahaan AI tidak akan bertanggung jawab jika terlibat dalam bencana di masa depan.
Sangat mudah untuk melihat daya tarik pendekatan regulasi semacam ini bagi OpenAI.
“Kami mendukung pendekatan seperti ini karena fokusnya pada hal yang paling penting: Mengurangi risiko kerusakan serius dari sistem AI paling canggih, sambil tetap memungkinkan teknologi ini sampai kepada orang-orang dan bisnis — kecil maupun besar — di Illinois,” kata juru bicara Jamie Radice.Wireddalam pernyataan.
“Mereka juga membantu menghindari kumpulan aturan yang berbeda di setiap negara bagian dan beralih ke standar nasional yang lebih jelas dan konsisten,” tambahnya.
Selain kematian massal, cedera, atau kerusakan properti, rancangan undang-undang ini juga akan melindungi perusahaan dari tanggung jawab jika aktor jahat menggunakan alat AI untuk menciptakan senjata kimia bahkan senjata nuklir, seorangkemungkinan yang menakutkanpemimpin teknologi telahmemperingatkan tentangselama bertahun-tahun sekarang.
Ini adalah topik yang sangat relevan setelah model AI terbaru dan paling kuat dari Anthropic, yang diberi nama Claude Mythos, yang menurut mereka membawa “risiko keamanan siber yang unprecedented.” Perusahaan jugamemperingatkan bahwa model telah melarikan diri dari pembatasan sandbox-nya, hanya untuk mengakses internet dan mengirimkan “email yang tidak terduga” kepada seorang pengembang saat mereka “sedang makan roti lapis di taman.”
Dorongan OpenAI untuk mendukung undang-undang ini menunjukkan sikap yang tidak biasa dari industri terhadap regulasi AI. Selama bertahun-tahun, para raksasa Silicon Valley telah mengatakan bahwa mereka menerima regulasi AI, sambil secara bersamaan memperjuangkan kerangka hukum yang lebih lunak yang mereka klaim tidak akan membuat Amerika Serikat tertinggal dalam persaingan AI yang sedang berlangsung.
“Di OpenAI, kami percaya bahwa Pedoman Bintang Utara untuk regulasi batas terdepan harus menjadi penyebaran model paling canggih secara aman dengan cara yang juga mempertahankan kepemimpinan AS dalam inovasi,” kata anggota tim Global Affairs OpenAI Caitlin Niedermeyer selama kesaksiannya mendukung Rancangan Undang-Undang SB 3444, sebagaimana dikutip olehWired.
Tetapi apakah rancangan undang-undang yang diajukan memiliki peluang untuk lolos, itu bisa dikatakan sangat diragukan. Seperti yang diungkapkan Scott Wisor, direktur kebijakan AI yang aman kepada publikasi tersebut, survei menunjukkan dukungan signifikan untuk menentang setiap undang-undang yang akan memberi kekebalan hukum kepada perusahaan AI.
“Tidak ada alasan bagi perusahaan AI yang ada untuk menghadapi tanggung jawab yang lebih rendah,” katanya.
Mengingat daftar panjang gugatan hukum yang dihadapi OpenAI terkait dugaan bahwa ChatGPT telah menyebabkan kekacauan, termasuk bunuh diri atau pembunuhan, topik ini kemungkinan besar akan terus menjadi perdebatan sengit di kalangan pejabat legislatif.
Namun untuk saat ini, legislasi AI federal terlihat semakin jauh dari kepastian, mengingat pemerintahan Trump terus mendukung kepentingan pemain industri, sehingga membiarkan setiap negara bagian melindungi warganya dari ancaman AI.
Lebih tentang AI dan tanggung jawab: Kelompok Penelitian Nirlaba Kecemasan Mengetahui bahwa OpenAI Telah Secara Rahasia Mendanai Karya Mereka
Pos iniDukungan Hukum OpenAI yang Melindunginya Ketika AI Menyebabkan Kematian Massal dan Kerusakan Lainnyamuncul pertama kali diBisnis.Laksamana.id -.







