Scroll to read post

AI Mythos Anthropic memicu kekhawatiran keamanan siber, tetap tidak dirilis

adjoe
A-AA+A++

Ringkasan Inisiatif Mythos AI

Anthropic, laboratorium AI yang berfokus pada penelitian dan dikenal karena pekerjaan keselamatan yang ketatnya, baru-baru ini mengumumkan sebuah proyek baru dengan nama kodeMythos AI. Meskipun detailnya masih sedikit, sumber internal mengatakan bahwa Mythos dirancang untuk mendorong batas-batas model bahasa generatif dengan mengintegrasikan penalaran multimodal, jendela konteks yang lebih besar, dan siklus self-alignment inovatif. Perhatian terhadap Mythos telah diperkuat oleh kehadirannya yang telah diumumkan sebelumnya.belum dirilisstatus yang telah memicu rasa penasaran dan kecemasan di kalangan komunitas teknologi.

Mengapa Ahli Keamanan Siber Menyampaikan Peringatan Merah

Potensi untuk Serangan Pemikiran Sosial Lanjutan

Salah satu kekhawatiran utama yang disampaikan oleh analis keamanan adalah bahwa pemahaman kontekstual yang ditingkatkan oleh Mythos bisa dimanfaatkan untuk membuat email phishing yang sangat realistis, video deep-fake, atau pesan suara sintetis yang hampir tidak dapat dibedakan dari komunikasi sah. Karena model ini diduga mampu berpikir tentang jejak digital pengguna terbaru, para penyerang bisa menyesuaikan pesan dengan presisi yang tak pernah terjadi sebelumnya, secara signifikan meningkatkan tingkat keberhasilan daripengumpulan kredensialdanPembohongan email bisnis (BEC)skema.

Pengayaan Penemuan Eksploit Otonom

Kekhawatiran lain berfokus pada potensi Mythos untuk mempercepatpenemuan kerentanan otomatisJika AI dapat mengonsumsi perpustakaan kode yang luas, advis keamanan, dan basis data eksploit, mungkin akan menyarankan vektor serangan baru atau bahkan menghasilkan exploit bukti konsep lebih cepat daripada peneliti manusia dapat memperbaikinya. Kemampuan dual-use ini mencerminkan kekhawatiran yang muncul ketika model bahasa besar pertama kali menunjukkan kemampuan generasi kode, tetapi peningkatan multimodal dan penalaran yang diklaim oleh Mythos mungkin akan menurunkan penghalang masuk lebih jauh lagi.

Risiko Pencemaran Data dan Pencurian Model

Karena Mythos belum dirilis, pipeline data pelatihan yang pasti bersifat tidak jelas. Namun, jika model tersebut bocor—atau jika pihak-pihak yang tidak bertanggung jawab berhasil mengekstrak sebagian dari bobotnya—aktor jahat dapat mencobaserangan pencurian modeluntuk meniru kemampuannya. Selain itu, kemungkinan untukpencemaran dataselama pelatihan (di mana contoh yang rusak atau menyesatkan dimasukkan) dapat menyebabkan Mythos mengembangkan perilaku yang bias atau tidak aman yang tetap ada bahkan setelah ditempatkan, menciptakan tanggung jawab jangka panjang bagi organisasi mana pun yang kemudian mengadopsinya.

Ketidakpastian Regulasi dan Kepatuhan

Pemerintah di seluruh dunia semakin memperketat tata kelola kecerdasan buatan, dengan Undang-Undang Kecerdasan Buatan Uni Eropa, Perintah Eksekutif AS tentang Kecerdasan Buatan, dan berbagai pedoman khusus sektor yang muncul. Model yang belum dirilis seperti Mythos yang menunjukkan kemampuan berisiko tinggi bisa masuk dalam sistem AI berisiko tinggi klasifikasi, menerapkan penilaian kepatuhan yang ketat, kewajiban transparansi, dan persyaratan pemantauan pasca-pasaran. Perusahaan yang menguji coba Mythos tanpa jalur kepatuhan yang jelas berisiko menghadapi denda, gugatan hukum, atau penarikan produk paksa.

Pendekatan Anthropic yang Berfokus pada Keamanan: Apa yang Kami Ketahui Sampai Saat Ini

Meskipun judul berita yang menimbulkan kepanikan, Anthropic telah menekankan bahwa Mythos tetap dalamlingkungan penelitian yang terkontrolPernyataan publik perusahaan menyoroti beberapa perlindungan:

  • Uji coba tim merah iteratif:Tim keamanan independen berusaha melanggar perlindungan model sebelum rilis eksternal.
  • Algoritma penyetaraan yang kuat:Mythos dikabarkan menggunakan versi yang dimodifikasi dari kerangka kerja Constitutional AI dari Anthropic, dengan tujuan memastikan ketidakberbahayaan dan kejujuran pada saat inferensi.
  • Kontrol akses terbatas:Hanya sekelompok kecil peneliti yang telah diverifikasi yang dapat berinteraksi dengan model tersebut, dan semua interaksi dicatat untuk audit.
  • Pengawasan dari komite tinjauan etika:Sebuah papan khusus mengevaluasi risiko penggunaan ganda secara terus-menerus.

Langkah-langkah ini menunjukkan bahwa Anthropic berusaha menyeimbangkan inovasi dengan kehati-hatian. Namun, kurangnya detail teknis yang umum diketahui membuat sulit bagi para ahli independen untuk memverifikasi efektivitas dari tindakan pencegahan ini, memicu spekulasi yang terus berlangsung.

Reaksi Industri dan Pendapat Ahli

Vendor Keamanan Memanggil Transparansi

Beberapa perusahaan keamanan siber telah mengeluarkan pernyataan yang meminta Anthropic untuk menerbitkan sebuahkartu modelataulaporan keselamatan sistematisuntuk Mythos, mirip dengan dokumentasi yang dirilis untuk Claude 2. Mereka berargumen bahwa transparansi memungkinkan komunitas yang lebih luas untuk mengembangkan aturan deteksi yang sesuai, aliran informasi ancaman, dan strategi mitigasi.

Peneliti Akademik Mendorong Standar Uji Sumber Terbuka

Akademisi yang spesialisasi dalam keselamatan kecerdasan buatan telah mendukung untuk sebuahsuite uji benchmark yang dibagikanyang mengukur kecenderungan model untuk menghasilkan kode berbahaya, memfasilitasi insinyur sosial, atau mencuri data properti. Dengan berpartisipasi dalam benchmark seperti ini, Anthropic dapat menunjukkan posisi keamanan Mythos tanpa mengungkapkan bobot properti.

Pembuat Kebijakan Mengadvokasi Kewaspadaan

Para anggota legislatif yang mengawasi ledakan AI telah memperingatkan bahwa model dengan kemampuan tinggi yang belum dirilis menimbulkan area abu-abu dalam regulasi. Beberapa orang telah memanggil untukpersyaratan pemberitahuan sebelum penempatanuntuk organisasi yang mengembangkan model yang melebihi ambang batas kemampuan tertentu, memastikan bahwa regulator dapat menilai risiko sebelum distribusi yang luas.

Implikasi bagi Perusahaan yang Mempertimbangkan Adopsi AI

Bagi perusahaan yang mengevaluasi apakah akan mencoba Mythos—atau AI yang serupa dan belum dirilis—beberapa pertimbangan praktis muncul:

  1. Penilaian Risiko:Lakukan latihan pemodelan ancaman yang menyeluruh yang mempertimbangkan skenario phishing yang didukung AI, pembuatan eksploit, dan kebocoran data.
  2. Pemeriksaan Kewajiban Pemasok:Verifikasi segala klaim tentang mekanisme keamanan melalui audit pihak ketiga atau uji penetrasi.
  3. Kontrol Akses:Terapkan segmentasi jaringan yang ketat dan prinsip hak akses minimum untuk lingkungan apa pun yang berinteraksi dengan model tersebut.
  4. Pemantauan dan Pencatatan:Deploy deteksi anomali real-time pada input dan output model untuk mengidentifikasi upaya penyalahgunaan lebih awal.
  5. Kepatuhan Sesuai:Petakan kasus penggunaan yang dimaksud dengan regulasi AI yang muncul untuk menghindari perbaikan mahal di masa depan.

Dengan memperlakukan Mythos sebagai sebuahaset yang berdampak tinggi, ketidakpastian tinggi, organisasi dapat memperoleh manfaat potensial sambil mengurangi risiko sisi negatif yang telah memicu kekhawatiran keamanan siber.

Jalan yang Tunggu: Apa yang Akan Terjadi Berikutnya?

Meskipun Mythos masih dalam keadaan rahasia, beberapa trajektori yang mungkin ada:

  • Pengeluaran Terkendali:Anthropic dapat memilih peluncuran bertahap, memberikan akses kepada mitra yang diverifikasi di bawah kebijakan penggunaan ketat, mirip dengan program akses awal untuk GPT-4.
  • Publikasi Berfokus Keselamatan:Lab mungkin akan memutuskan untuk menerbitkan laporan keselamatan yang rinci, kartu model, dan mungkin bahkan sebuahringkasan tim merahtanpa melepaskan beban, sehingga mengatasi kekhawatiran transparansi sambil mempertahankan keunggulan kompetitif.
  • Fase Penelitian Lanjutan:Jika pengujian internal mengungkap risiko yang belum terselesaikan, Anthropic dapat memperpanjang fase penelitian, dengan menambah investasi dalam teknik penyesuaian, pengujian ketangguhan, dan kolaborasi eksternal sebelum peluncuran publik apa pun.
  • Intervensi Regulasi:Jika para pengambil kebijakan memandang Mythos sebagai ancaman sistemik, mereka dapat menerapkan pembatasan sementara—seperti persyaratan lisensi atau penilaian dampak wajib—terhadap entitas mana pun yang ingin mengembangkan atau menerapkan sistem serupa.

Bergapapapun jalur yang terbuka, dialog yang mengelilingi Mythos menegaskan kebenaran yang lebih luas: seiring berkembangnya kemampuan AI, semakin meningkat pula keharusan untuk menjalankan pengelolaan keamanan yang ketat. Para pemangku kepentingan—pengembang, profesional keamanan, regulator, dan pengguna akhir—harus bekerja sama untuk memastikan bahwa inovasi seperti Mythos mendorong kemajuan masyarakat tanpa membuka jalan baru bagi ancaman siber.

Kesimpulan

AI Mythos dari Anthropic berada di perbatasan inovasi terkini dan keamanan siber yang lebih tinggi. Statusnya yang belum dirilis telah memperkuat kekhawatiran tentang penipuan sosial canggih, penemuan eksploit otomatis, pencemaran data, dan kepatuhan regulasi. Meskipun kerangka kerja keamanan pertama dari Anthropic memberikan rasa aman, kurangnya detail teknis publik meninggalkan ruang untuk keraguan. Di masa depan, transparansi, validasi pihak ketiga, dan manajemen risiko proaktif akan menjadi krusial untuk memanfaatkan potensi Mythos sambil melindungi ekosistem digital. Seiring berkembangnya lingkungan AI, kisah Mythos ini menjadi pengingat yang tepat waktu bahwakekuatan besar menuntut tanggung jawab yang besar—dan tanggung jawab ini dimulai jauh sebelum sebuah model pernah melihat cahaya hari.

Diterbitkan olehBisnis.Laksamana.id -telligence| Didukung olehInvestmentCenter.comMendaftar untuk Modal Startup atau Pinjaman Bisnis.

Berlangganan untuk terus membaca

Ini adalah postingan khusus pelanggan. Berlangganan untuk mendapatkan akses ke bagian lain dari postingan ini dan konten lain yang hanya tersedia untuk pelanggan.

Berlangganan