Scroll to read post

Laporan hukum Elon Musk sedang memperhatikan catatan keamanan OpenAI dengan cermat

adjoe
A-AA+A++

Upaya hukum Elon Musk untuk menghancurkan OpenAI mungkin bergantung pada bagaimana anak perusahaannya yang berorientasi laba memperkuat atau mengurangi misi awal laboratorium pionir tersebut, yaitu memastikan bahwa manusia mendapat manfaat dari kecerdasan buatan umum.

Pada Kamis, sebuah pengadilan federal di Oakland mendengar seorang mantan karyawan dan anggota dewan mengatakan upaya perusahaan untuk memasukkan produk AI ke pasar mengorbankan komitmennya terhadap keselamatan AI.

Rosie Campbell bergabung dengan tim kesiapan AGI perusahaan pada tahun 2021, dankiri OpenAIpada tahun 2024 setelah timnya dibubarkan. Tim lain yang fokus pada keamanan, yaitu tim Super Alignment, juga ditutup pada periode yang sama.

Ketika saya bergabung, fokusnya sangat pada penelitian dan umum bagi orang-orang untuk membicarakan AGI dan isu keamanan,” katanya bersaksi. “Seiring berjalannya waktu, organisasi ini menjadi lebih fokus pada produk.

Dalam pemeriksaan silang, Campbell mengakui bahwa dana yang signifikan kemungkinan diperlukan untuk tujuan laboratorium dalam membangun AGI, tetapi ia mengatakan membuat model komputer yang super cerdas tanpa pengukuran keamanan yang tepat tidak sesuai dengan misi organisasi yang awalnya ia ikuti.

Campbell menunjuk pada kejadian di mana Microsoft menerapkan versi model GPT-4 perusahaan di India melalui mesin pencari Bing sebelum model tersebut dievaluasi oleh Badan Keselamatan Penerapan (DSB) perusahaan. Model itu sendiri tidak membawa risiko besar, katanya, tetapi perusahaan perlu “membuat prinsip yang kuat seiring teknologi semakin kuat. Kami ingin memiliki proses keselamatan yang baik yang kami ketahui diikuti secara andal.”

Para pengacara OpenAI juga membuat Campbell mengakui bahwa dalam “pendapat spekulatifnya,” pendekatan keamanan OpenAI lebih unggul dibandingkan yang ada di xAI, perusahaan AI yang didirikan Musk yang diakuisisi oleh SpaceX tahun ini.

OpenAI merilis evaluasi model-modelnya dan berbagikerangka keselamatansecara terbuka, tetapi perusahaan menolak untuk memberikan komentar tentang pendekatan saat ini mereka terhadap keselarasan AGI. Dylan Scandinaro, kepala Persiapan saat ini, diangkat dari Anthropic pada Februari. Altmankatakanlahperekrutan itu akan membuatnya “tidur lebih nyenyak malam ini.”

Penggunaan GPT-4 di India, namun, menjadi salah satu tanda merah yang menyebabkan dewan pendiri OpenAI non-profit untuk sementara memecat CEO Sam Altman pada 2023. Kejadian ini terjadi setelah karyawan termasuk ilmuwan utama saat itu Ilya Sutskever dan CTO saat itu Mira Murati mengeluh tentang gaya manajemen Altman yang cenderung menghindari konflik. Tasha McCauley, anggota dewan pada saat itu, bersaksi tentang kekhawatiran bahwa Altman tidak cukup transparan dengan dewan agar struktur uniknya dapat berfungsi.

McCauley juga membahas sebuahyang dilaporkan secara luas poladari Altman yang menipu dewan. Yang menonjol, Altman berbohong kepada anggota dewan lainnya mengenai niat McCauley untuk menggulingkan Helen Toner, anggota dewan ketiga yang menerbitkan sebuah laporan putih yang termasuk kritik tersirat terhadap kebijakan keselamatan OpenAI. Altman juga gagal memberi tahu dewan tentang keputusan untuk meluncurkan ChatGPT secara publik, dan anggota-anggota dewan khawatir akan kurangnya pengungkapan konflik kepentingan yang mungkin terjadi.

Kami adalah dewan nonprofit dan mandat kami adalah dapat mengawasi entitas untuk keuntungan di bawah kami,” kata McCauley kepada pengadilan. “Cara utama kami untuk melakukan itu sedang dipertanyakan. Kami sama sekali tidak memiliki tingkat kepercayaan yang tinggi untuk mempercayai informasi yang disampaikan kepada kami sehingga kami dapat membuat keputusan secara terinformasi.

Namun, keputusan untuk memecat Altman terjadi pada saat yang bersamaan dengan penawaran tender kepada karyawan perusahaan. McCauley mengatakan bahwa ketika staf OpenAI mulai mendukung Altman dan Microsoft berusaha memulihkan kondisi semula, dewan akhirnya membalikkan keputusan mereka, dengan anggota dewan yang menentang Altman mundur.

Kegagalan yang terlihat dari dewan organisasi nirlaba untuk memengaruhi organisasi berbasis profit langsung terkait dengan argumen Musk bahwa transformasi OpenAI dari organisasi penelitian menjadi salah satu perusahaan swasta terbesar di dunia melanggar kesepakatan implisit para pendirinya.

David Schizer, mantan Dean Sekolah Hukum Columbia yang dibayar oleh tim Musk sebagai saksi ahli, mengulangi kekhawatiran McCauley.

OpenAI menekankan bahwa bagian penting dari misinya adalah keamanan dan mereka akan memprioritaskan keamanan daripada keuntungan,” kata Schizer. “Sebagian dari itu adalah mengambil aturan keamanan secara serius, jika sesuatu perlu menjalani tinjauan keamanan, itu harus terjadi. Yang penting adalah isu proses.

Dengan AI yang sudah sangat melekat di perusahaan-perusahaan berbasis keuntungan, isu ini jauh melampaui satu laboratorium saja. McCauley mengatakan kegagalan tata kelola internal di OpenAI seharusnya menjadi alasan untuk menerima regulasi pemerintah yang lebih kuat terhadap AI tingkat lanjut—”jika semuanya tergantung pada satu CEO yang membuat keputusan tersebut, dan kita memiliki kepentingan umum yang dipertaruhkan, itu sangat tidak optimal.”