LLM: Retrieval-Augmented Generation (RAG)
Retrieval-Augmented Generation (RAG) adalah sebuah teknik dan komponen infrastruktur yang digunakan dalam pengembangan agen berbasis model bahasa besar (Large Language Models/LLM). Pendekatan ini berfungsi untuk mendukung otomatisasi tugas cerdas dengan menggabungkan kemampuan penalaran bahasa dari model dasar dengan sistem penarikan informasi eksternal.
Infrastruktur dan Integrasi Memori
Dalam arsitektur agen kecerdasan buatan (AI), fungsionalitas RAG berkaitan erat dengan manajemen memori, khususnya dalam mengelola pengetahuan semantik jangka panjang. Sistem arsitektur penarikan informasi ini umumnya beroperasi menggunakan basis data vektor (vector database) yang memungkinkan proses pemanggilan kembali informasi (recall) secara efisien. RAG memberikan kerangka kerja bagi agen AI untuk menarik data spesifik dari riwayat sebelumnya—seperti mengacu pada dokumen atau surel masa lalu—untuk memandu langkah selanjutnya dan menyusun teks yang lebih relevan. Dalam studi AI, konsep ini dipelajari sebagai bagian dari infrastruktur agen bersama dengan komponen krusial lainnya, seperti kemampuan penalaran (reasoning), perencanaan sistematis (planning), penggunaan perangkat fungsional (tool use), hingga kolaborasi multi-agen.
Penerapan di Skala Perusahaan
Penggunaan RAG menjadi salah satu tren utama dalam penerapan AI generatif untuk kebutuhan tingkat perusahaan (enterprise workflows). Implementasi RAG dalam skala industri sering dihubungkan dengan kerangka kerja sistem AI komposit dan infrastruktur berbasis komputasi awan. Sebagai contoh, teknik-teknik fundamental dalam RAG digunakan untuk memperluas kemampuan grounding (pengaitan model bahasa pada fakta spesifik) di dalam platform seperti Google Cloud Vertex AI.
Evaluasi dan Pengujian Kinerja
Pengukuran efektivitas sistem RAG memerlukan kerangka pengujian komprehensif untuk memastikan bahwa sistem mengambil dan memproses informasi yang tepat. Salah satu metodologi standar yang digunakan untuk mengevaluasi kinerja sistem RAG adalah pengujian "Needle in a Haystack" (Mencari Jarum di Tumpukan Jerami). Tes ini dirancang secara khusus untuk mengukur seberapa akurat sebuah model atau sistem penarikan data dapat mengidentifikasi atau mengekstraksi sekeping informasi spesifik yang disematkan di dalam volume teks atau kumpulan data yang sangat besar. Pengujian serupa juga diaplikasikan untuk meninjau kemampuan model-model mutakhir, seperti evaluasi pada model Gemini 1.5 Pro.
Pendidikan dan Studi Akademik
Mengingat pentingnya infrastruktur ini dalam menjembatani kapabilitas model AI dengan data dunia nyata, RAG menjadi bagian terpadu dari silabus pendidikan tingkat lanjut di bidang kecerdasan buatan. Konsep RAG, beserta sejarah dan kerangka agennya, diajarkan secara ekstensif dalam program Massive Open Online Course (MOOC) "Large Language Model Agents" pada musim gugur tahun 2024, yang diinstruksikan oleh jajaran akademisi dari UC Berkeley serta ilmuwan riset dari Google DeepMind.