Scroll to read post

Dari LLM hingga halusinasi, berikut panduan sederhana tentang istilah-istilah AI yang umum

adjoe
A-AA+A++

Kecerdasan buatan adalah dunia yang dalam dan rumit. Ilmuwan yang bekerja di bidang ini sering kali mengandalkan istilah teknis dan bahasa gaul untuk menjelaskan apa yang mereka kerjakan. Akibatnya, kita sering harus menggunakan istilah teknis tersebut dalam liputan kami tentang industri kecerdasan buatan. Itulah sebabnya kami merasa perlu menyusun sebuah glosarium dengan definisi dari beberapa kata dan frasa paling penting yang kami gunakan dalam artikel kami.

Kami akan secara teratur memperbarui glosarium ini untuk menambahkan entri baru seiring para peneliti terus-menerus menemukan metode baru yang mendorong batas kemajuan kecerdasan buatan sambil mengidentifikasi risiko keselamatan yang muncul.

AGI

Kecerdasan buatan umum (AGI), atau AGI, adalah istilah yang samar. Namun secara umum merujuk pada AI yang lebih mampu daripada manusia rata-rata dalam banyak, jika tidak sebagian besar, tugas. Sam Altman, CEO OpenAIbaru-baru inidisebutkan AGI sebagai “setara dengan seorang manusia rata-rata yang bisa Anda rekrut sebagai rekan kerja.” Di sisi lain,Piagam OpenAImendefinisikan AGI sebagai “sistem yang sangat otonom yang unggul dibanding manusia dalam sebagian besar pekerjaan yang bernilai ekonomi.” Pemahaman Google DeepMind sedikit berbeda dari dua definisi ini; laboratorium tersebut melihat AGI sebagai “AI yang setidaknya sebanding dengan manusia dalam sebagian besar tugas kognitif.” Bingung? Jangan khawatir —jadi para ahli berada di garis depan penelitian AI.

Agen AI

Sebuah agen AI merujuk pada alat yang menggunakan teknologi AI untuk melakukan serangkaian tugas atas nama Anda — melebihi apa yang bisa dilakukan oleh chatbot AI yang lebih dasar — seperti melaporkan pengeluaran, memesan tiket atau meja di restoran, atau bahkan menulis dan memelihara kode. Namun, seperti yang telah kamidijelaskan sebelumnya, ada banyak komponen yang bergerak di ruang ini yang sedang berkembang, sehingga “agen AI” mungkin memiliki makna yang berbeda bagi orang yang berbeda. Infrastruktur juga masih dalam proses pembangunan untuk memenuhi kemampuan yang diharapkan. Namun, konsep dasarnya mengimplikasikan sistem otonom yang mungkin memanfaatkan beberapa sistem AI untuk melakukan tugas-tugas multi-langkah.

Rantai pemikiran

Dengan pertanyaan sederhana, otak manusia dapat menjawabnya tanpa terlalu berpikir — seperti “hewan mana yang lebih tinggi, jerapah atau kucing?” Namun dalam banyak kasus, Anda sering membutuhkan kertas dan pensil untuk menemukan jawaban yang benar karena ada langkah-langkah antara. Misalnya, jika seorang petani memiliki ayam dan sapi, dan bersama-sama mereka memiliki 40 kepala dan 120 kaki, Anda mungkin perlu menulis persamaan sederhana untuk menemukan jawabannya (20 ayam dan 20 sapi).

Dalam konteks AI, pemikiran berantai (chain-of-thought) untuk model bahasa besar berarti memecah masalah menjadi langkah-langkah antara yang lebih kecil untuk meningkatkan kualitas hasil akhir. Biasanya membutuhkan waktu lebih lama untuk mendapatkan jawaban, tetapi jawabannya lebih mungkin benar, terutama dalam konteks logika atau pemrograman. Model pemikiran dikembangkan dari model bahasa besar tradisional dan dioptimalkan untuk berpikir berantai berkat pembelajaran penguatan.

(Lihat:Model bahasa besar)

Hitung

Meskipun merupakan istilah yang multivalen, komputasi secara umum merujuk pada vitalkekuatan komputasiyang memungkinkan model AI beroperasi. Jenis pemrosesan ini mendorong industri kecerdasan buatan, memberinya kemampuan untuk melatih dan menerapkan model yang kuatnya. Istilah ini sering digunakan sebagai singkatan dari jenis perangkat keras yang menyediakan kekuatan komputasi — hal-hal seperti GPU, CPU, TPU, dan bentuk infrastruktur lainnya yang menjadi dasar dari industri kecerdasan buatan modern.

Pembelajaran mendalam

Subset dari machine learning yang terus meningkatkan diri, di mana algoritma kecerdasan buatan dirancang dengan struktur jaringan saraf tiruan (ANN) berlapis. Hal ini memungkinkan mereka membuat korelasi yang lebih kompleks dibandingkan sistem berbasis machine learning yang lebih sederhana, seperti model linear atau pohon keputusan. Struktur algoritma pembelajaran mendalam terinspirasi dari jalur interkoneksi neuron di otak manusia.

Model-model AI pembelajaran mendalam mampu mengidentifikasi karakteristik penting dalam data secara mandiri, daripada memerlukan insinyur manusia untuk menentukan fitur-fitur ini. Struktur ini juga mendukung algoritma yang dapat belajar dari kesalahan dan, melalui proses pengulangan dan penyesuaian, meningkatkan output mereka sendiri. Namun, sistem pembelajaran mendalam membutuhkan banyak titik data untuk menghasilkan hasil yang baik (jutaan atau lebih). Mereka juga biasanya memakan waktu lebih lama untuk dilatih dibandingkan algoritma pembelajaran mesin yang lebih sederhana — sehingga biaya pengembangan cenderung lebih tinggi.

(Lihat:Jaringan saraf tiruan)

Difusi

Diffusi adalah teknologi di inti banyak model AI yang menghasilkan seni, musik, dan teks. Terinspirasi oleh fisika,sistem difusi secara perlahan “menghancurkan” struktur data— misalnya, foto, lagu, dan seterusnya — dengan menambahkan gangguan hingga tidak tersisa apa pun. Dalam fisika, difusi terjadi secara spontan dan ireversibel — gula yang menyebar dalam kopi tidak dapat dikembalikan ke bentuk kubus. Namun sistem difusi dalam AI bertujuan untuk mempelajari proses “difusi terbalik” untuk mengembalikan data yang rusak, sehingga memiliki kemampuan untuk memulihkan data dari gangguan.

Destilasi

Distilasi adalah teknik yang digunakan untuk mengekstrak pengetahuan dari model AI besar dengan model ‘guru-murid’. Pengembang mengirimkan permintaan ke model guru dan mencatat outputnya. Jawaban terkadang dibandingkan dengan dataset untuk melihat seberapa akuratnya. Output ini kemudian digunakan untuk melatih model murid, yang dilatih agar meniru perilaku guru.

Distilasi dapat digunakan untuk membuat model yang lebih kecil dan efisien berdasarkan model yang lebih besar dengan kerugian distilasi minimal. Ini kemungkinan adalah cara yang digunakan OpenAI mengembangkan GPT-4 Turbo, versi yang lebih cepat dari GPT-4.

Sementara semua perusahaan AI menggunakan distilasi secara internal, mungkin juga telah digunakan oleh beberapa perusahaan AI untuk menyusul model paling depan. Distilasi dari pesaing biasanyamelanggarketentuan layanan AI API dan asisten obrolan

Penyesuaian halus

Ini merujuk pada pelatihan lanjutan model kecerdasan buatan untuk mengoptimalkan kinerja pada tugas atau bidang yang lebih spesifik daripada yang sebelumnya menjadi fokus pelatihannya — biasanya dengan memberikan data baru yang spesialis (yaitu, berorientasi tugas).

Banyak startup AI mengambil model bahasa besar sebagai titik awal untuk membangun produk komersial, tetapi bersaing untuk meningkatkan utilitas untuk sektor atau tugas tertentu dengan menambahi siklus pelatihan sebelumnya melalui penyesuaian halus berdasarkan pengetahuan dan keahlian mereka sendiri.

(Lihat:Model bahasa besar [LLM])

GAN

GAN, atau Jaringan Adversarial Generatif, adalah jenis kerangka pembelajaran mesin yang menjadi dasar beberapa perkembangan penting dalam kecerdasan buatan generatif ketika datang ke menghasilkan data yang realistis – termasuk (tetapi tidak terbatas pada) alat deepfake. GAN melibatkan penggunaan sepasang jaringan saraf tiruan, salah satunya mengandalkan data pelatihannya untuk menghasilkan output yang diberikan ke model lain untuk dievaluasi. Model kedua, model penapis, dengan demikian berperan sebagai klasifikator terhadap output generator – memungkinkannya untuk terus meningkat seiring waktu.

Struktur GAN diatur sebagai kompetisi (oleh karena itu “adversarial”) – dengan dua model yang pada dasarnya diprogram untuk saling mengalahkan: generator berusaha agar outputnya melewati discriminator, sementara discriminator bekerja untuk mengenali data yang dihasilkan secara buatan. Kontes yang terstruktur ini dapat memaksimalkan hasil AI agar lebih realistis tanpa perlu campur tangan manusia tambahan. Meskipun GAN paling efektif untuk aplikasi yang lebih sempit (seperti menghasilkan foto atau video yang realistis), bukan untuk AI berfungsi umum.

Halusinasi

Hallusinasi adalah istilah yang disukai industri kecerdasan buatan untuk menggambarkan model kecerdasan buatan yang membuat sesuatu – secara harfiah menghasilkan informasi yang salah. Jelas, ini merupakan masalah besar bagi kualitas kecerdasan buatan.

Hallusinasi menghasilkan output GenAI yang bisa menyesatkan dan bahkan dapat menyebabkan risiko nyata — dengan konsekuensi yang berbahaya (bayangkan pertanyaan kesehatan yang menghasilkan saran medis yang merugikan). Inilah sebabnya, sebagian besar alat GenAI memiliki ketentuan kecil yang memperingatkan pengguna untuk memverifikasi jawaban yang dihasilkan AI, meskipun peringatan semacam itu biasanya jauh lebih tidak menonjol dibandingkan informasi yang diberikan alat tersebut hanya dengan sentuhan tombol.

Masalah AI yang memproduksi informasi palsu dianggap muncul sebagai akibat dari kekosongan dalam data pelatihan. Untuk GenAI berfungsi umum terutama — yang terkadang juga dikenal sebagai model dasar — ini tampaknya sulit untuk diselesaikan. Tidak ada cukup data yang ada untuk melatih model AI agar secara komprehensif menyelesaikan semua pertanyaan yang mungkin kita ajukan. TL;DR: kita belum menciptakan Tuhan (masih).

Hallusinasi berkontribusi pada dorongan menuju model AI yang semakin spesialis dan/atau vertikal — yaitu AI berbasis domain yang memerlukan keahlian yang lebih sempit — sebagai cara untuk mengurangi kemungkinan celah pengetahuan dan mengurangi risiko disinformasi.

Inferensi

Inferensi adalah proses menjalankan model AI. Ini adalah melepaskan model untuk membuat prediksi atau mengambil kesimpulan dari data yang sebelumnya telah dilihat. Untuk jelas, inferensi tidak dapat terjadi tanpa pelatihan; sebuah model harus belajar pola dalam sekumpulan data sebelum dapat secara efektif melakukan ekstrapolasi dari data pelatihan ini.

Banyak jenis perangkat keras dapat melakukan inferensi, mulai dari prosesor smartphone hingga GPU yang kuat hingga akselerator AI yang dirancang khusus. Namun, tidak semua di antaranya dapat menjalankan model dengan baik secara sama. Model yang sangat besar akan memakan waktu lama untuk membuat prediksi, misalnya pada laptop dibandingkan server awan dengan chip AI kelas atas.

[Lihat:Pelatihan]

Model bahasa besar (LLM)

Model bahasa besar, atau LLM, adalah model AI yang digunakan oleh asisten AI populer, sepertiChatGPT,Claude,Gemini Google,Meta’s AI Llama,Microsoft Copilot, atauLe Chat Mistral. Ketika Anda berbicara dengan asisten AI, Anda berinteraksi dengan model bahasa besar yang memproses permintaan Anda secara langsung atau dengan bantuan alat yang tersedia, seperti penjelajahan web atau interpreter kode.

Asisten AI dan LLM dapat memiliki nama yang berbeda. Misalnya, GPT adalah model bahasa besar dari OpenAI dan ChatGPT adalah produk asisten AI.

LLM adalah jaringan saraf dalam yang terdiri dari miliaran parameter numerik (atau berat, lihat di bawah iniyang mempelajari hubungan antara kata dan frasa serta menciptakan representasi bahasa, sebuah peta multidimensi kata.

Model-model ini dibuat dengan mengenkoding pola-pola yang mereka temukan dalam miliaran buku, artikel, dan transkrip. Ketika Anda memberi prompt pada LLM, model akan menghasilkan pola yang paling mungkin sesuai dengan prompt tersebut. Kemudian, model mengevaluasi kata berikutnya yang paling mungkin setelah kata terakhir berdasarkan apa yang telah disampaikan sebelumnya. Ulangi, ulangi, dan ulangi.

(Lihat:Jaringan saraf tiruan)

Cache Memori

Cache memori merujuk pada proses penting yang meningkatkan inferensi (yaitu proses di mana AI bekerja untuk menghasilkan respons terhadap pertanyaan pengguna). Secara esensial, caching adalah teknik optimisasi yang dirancang untuk membuat inferensi lebih efisien. AI jelas didorong oleh perhitungan matematika yang intensif dan setiap kali perhitungan tersebut dilakukan, mereka menggunakan lebih banyak daya. Caching dirancang untuk mengurangi jumlah perhitungan yang mungkin harus dijalankan model dengan menyimpan perhitungan tertentu untuk permintaan pengguna dan operasi masa depan. Ada berbagai jenis caching memori, meskipun salah satu yang paling dikenal adalahPenyimpanan sementara KV (atau pasangan kunci-nilai). Penyimpanan cache KV bekerja pada model berbasis transformer, dan meningkatkan efisiensi, menghasilkan hasil yang lebih cepat dengan mengurangi waktu (dan pekerjaan algoritmik) yang diperlukan untuk menghasilkan jawaban atas pertanyaan pengguna.

(Lihat:Inferensi)

Jaringan saraf tiruan

Jaringan saraf tiruan merujuk pada struktur algoritmik berlapis yang menjadi dasar pembelajaran mendalam — dan secara lebih luas, seluruh ledakan dalam alat AI generatif setelah munculnya model bahasa besar.

Meskipun ide mengambil inspirasi dari jalur yang saling terhubung padat otak manusia sebagai struktur desain untuk algoritma pemrosesan data sudah ada sejak tahun 1940-an, tetapi peningkatan yang jauh lebih baru dari perangkat keras pemrosesan grafis (GPU) — melalui industri video game — yang benar-benar membuka daya teori ini. Chip ini terbukti sangat cocok untuk melatih algoritma dengan lapisan yang jauh lebih banyak daripada yang mungkin dilakukan pada masa sebelumnya — memungkinkan sistem AI berbasis jaringan saraf mencapai kinerja yang jauh lebih baik di berbagai bidang, termasuk pengenalan suara, navigasi otonom, dan penemuan obat.

(Lihat:Model bahasa besar [LLM])

RAMageddon

RAMageddon adalah istilah baru yang menyenangkan untuk suatu tren yang tidak terlalu menyenangkan yang sedang merajalela di industri teknologi: kekurangan memori akses acak (RAM) yang semakin meningkat, yang menggerakkan hampir semua produk teknologi yang kita gunakan dalam kehidupan sehari-hari. Seiring berkembangnya industri AI, perusahaan teknologi terbesar dan laboratorium AI — semuanya bersaing untuk memiliki AI yang paling kuat dan efisien — membeli begitu banyak RAM untuk menopang pusat data mereka sehingga tidak tersisa banyak bagi kami berikutnya. Dan artinya kelangkaan pasokan ini membuat apa yang tersisa semakin mahal.

Yang mencakup industri seperti permainan (di mana perusahaan besar telah harusnaikkan harga konsolkarena lebih sulit menemukan chip memori untuk perangkat mereka), elektronik konsumen (di mana kekurangan memori bisa menyebabkanpenurunan terbesar dalam pengiriman smartphonedalam lebih dari satu dekade), dan komputasi perusahaan umum (karena perusahaan-perusahaan itu tidak pernah cukup RAM untuk pusat data mereka sendiri). Lonjakan harga hanya diharapkan berhenti setelah kekurangan yang ditakuti berakhir, tetapi sayangnya, adabukan benar-benar tanda yang signifikanitu akan terjadi segera.

Pelatihan

Pengembangan AI pembelajaran mesin melibatkan proses yang dikenal sebagai pelatihan. Secara sederhana, ini merujuk pada data yang dimasukkan agar model dapat belajar dari pola dan menghasilkan output yang berguna.

Pada titik ini dalam tumpukan AI, hal-hal bisa sedikit menjadi filosofis — karena sebelum dilatih, struktur matematis yang digunakan sebagai titik awal untuk mengembangkan sistem pembelajaran hanyalah sekumpulan lapisan dan angka acak. Hanya melalui pelatihan bahwa model AI benar-benar mengambil bentuk. Secara esensial, proses di mana sistem merespons karakteristik dalam data memungkinkannya menyesuaikan output menuju tujuan yang diinginkan — baik itu mengidentifikasi gambar kucing atau menghasilkan haiku sesuai permintaan.

Perlu dicatat bahwa tidak semua AI memerlukan pelatihan. AI berbasis aturan yang diprogram untuk mengikuti instruksi yang telah ditentukan secara manual — misalnya, seperti chatbot linear — tidak perlu menjalani pelatihan. Namun, sistem AI semacam ini kemungkinan akan lebih terbatas daripada sistem yang belajar secara mandiri (yang terlatih dengan baik).

Masih, pelatihan bisa mahal karena membutuhkan banyak input — dan, secara umum, volume input yang diperlukan untuk model seperti ini telah mengalami peningkatan.

Pendekatan hibrida terkadang dapat digunakan untuk mempercepat pengembangan model dan membantu mengelola biaya. Misalnya, melakukan penyesuaian berbasis data pada AI berbasis aturan — artinya pengembangan memerlukan data, komputasi, energi, dan kompleksitas algoritma yang lebih sedikit dibanding jika pengembang mulai membangun dari awal.

[Lihat:Inferensi]

Token

Ketika membicarakan komunikasi antara manusia dan mesin, terdapat beberapa tantangan yang jelas. Orang-orang berkomunikasi menggunakan bahasa manusia, sementara program AI menjalankan tugas dan merespons pertanyaan melalui proses algoritmik kompleks yang didasarkan pada data. Dalam definisi paling sederhananya, token merepresentasikan blok bangunan dasar dari komunikasi manusia-ke-AI, yaitu segmen data yang telah diproses atau dihasilkan oleh LLM.

Token dibuat melalui proses yang dikenal sebagai “tokenisasi”, yang memecah data mentah dan menyempurnakannya menjadi unit-unit terpisah yang dapat dicerna oleh LLM. Mirip dengan cara compiler perangkat lunak menerjemahkan bahasa manusia menjadi kode biner yang dapat diproses oleh komputer, tokenisasi memproses bahasa manusia untuk program AI melalui pertanyaan pengguna mereka sehingga dapat menyiapkan respons.

Ada beberapa jenis token yang berbeda — termasuk token masukan (jenis yang harus dihasilkan sebagai respons terhadap pertanyaan pengguna manusia), token keluaran (jenis yang dihasilkan sebagai respons LLM terhadap permintaan manusia), dan token penalaran, yang melibatkan tugas dan proses yang lebih panjang dan intensif yang terjadi sebagai bagian dari permintaan pengguna.

Dengan AI perusahaan, penggunaan token juga menentukan biaya. Karena token setara dengan jumlah data yang diproses oleh model, mereka juga telah menjadi cara di mana industri AI memonetisasi layanannya. Sebagian besar perusahaan AI mengenakan biaya penggunaan LLM berdasarkan per token. Dengan demikian, semakin banyak token yang dibakar oleh perusahaan saat menggunakan program AI (seperti ChatGPT), semakin banyak uang yang harus dibayarkan kepada penyedia layanan AI (OpenAI).

Transfer pembelajaran

Teknik di mana model AI yang sebelumnya dilatih digunakan sebagai titik awal untuk mengembangkan model baru untuk tugas yang berbeda tetapi biasanya terkait – memungkinkan pengetahuan yang diperoleh dalam siklus pelatihan sebelumnya untuk digunakan kembali.

Transfer learning dapat menghasilkan penghematan efisiensi dengan mempercepat pengembangan model. Ini juga bisa berguna ketika data untuk tugas yang sedang dikembangkan model terbatas. Namun, penting untuk dicatat bahwa pendekatan ini memiliki keterbatasan. Model yang bergantung pada transfer learning untuk mendapatkan kemampuan yang umum kemungkinan akan memerlukan pelatihan pada data tambahan agar dapat berkinerja baik dalam domain fokusnya.

(Lihat:Penyesuaian halus)

Berat

Bobot sangat penting dalam pelatihan AI, karena menentukan seberapa banyak kepentingan (atau bobot) yang diberikan pada fitur berbeda (atau variabel input) dalam data yang digunakan untuk melatih sistem — sehingga membentuk output model AI.

Dengan kata lain, bobot adalah parameter numerik yang menentukan apa yang paling signifikan dalam dataset untuk tugas pelatihan yang diberikan. Mereka melakukan fungsinya dengan menerapkan perkalian terhadap input. Pelatihan model biasanya dimulai dengan bobot yang ditetapkan secara acak, tetapi seiring proses berlangsung, bobot-bobot tersebut menyesuaikan diri saat model berusaha mencapai output yang lebih sesuai dengan target.

Sebagai contoh, model AI untuk memprediksi harga properti yang dilatih dengan data real estate historis untuk lokasi tujuan dapat mencakup bobot untuk fitur seperti jumlah kamar tidur dan kamar mandi, apakah properti tersebut merupakan rumah terpisah atau semi terpisah, apakah memiliki tempat parkir, garasi, dan sebagainya.

Pada akhirnya, bobot yang diberikan model pada masing-masing input tersebut mencerminkan seberapa besar mereka memengaruhi nilai sebuah properti, berdasarkan dataset yang diberikan.

Artikel ini diperbarui secara teratur dengan informasi baru.