Menguasai Lingo: Daftar Istilah Penting AI/ML untuk Setiap Penggemar Data
AGI
AGI (Kecerdasan Umum Buatan) adalah istilah teoretis yang menunjukkan kecerdasan buatan yang mampu menangkap, memperoleh, dan menerapkan informasi di berbagai aktivitas, mirip dengan kemampuan kognitif manusia. Pengembangan AGI akan menjadi tonggak penting dalam penelitian AI, karena model AI saat ini unggul dalam tugas-tugas khusus yang sempit, tetapi berjuang untuk mentransfer informasi dan menggeneralisasi lintas domain. Pengejaran AGI menimbulkan banyak pertanyaan dan kekhawatiran, termasuk konsekuensi sosial yang potensial, kekhawatiran tentang etika, dan kepastian akses yang adil ke manfaat AGI.
Mekanisme Perhatian
Proses Mekanisme Perhatian dalam jaringan saraf dimodelkan setelah fungsi perhatian otak manusia. Teknik-teknik ini memungkinkan model untuk fokus pada bagian-bagian berbeda dari data masukan sesuai dengan relevansinya dengan pekerjaan yang ada. Mekanisme perhatian meningkatkan kemampuan model untuk menangkap konteks dan menangani ketergantungan jangka panjang dengan menilai relevansi berbagai bagian masukan dalam hubungannya satu sama lain. Proses perhatian telah terbukti bermanfaat dalam berbagai bidang kecerdasan buatan, termasuk pemrosesan bahasa alami, visi komputer, dan pengenalan suara.
BERT
BERT (Bidirectional Encoder Representations from Transformers) adalah model berbasis transformer yang telah dilatih sebelumnya oleh Google untuk tugas pemahaman bahasa alami. Proses pelatihan dua arahnya yang inovatif memungkinkannya mengumpulkan informasi kontekstual dari sisi kiri dan kanan token, memberikan pemahaman bahasa yang lebih komprehensif. BERT telah menunjukkan kinerja yang tak tertandingi di berbagai aplikasi pemrosesan bahasa alami, termasuk menjawab pertanyaan, analisis sentimen, dan pengenalan entitas bernama. Kesuksesannya yang fenomenal telah mendorong terciptanya beberapa model berbasis BERT dan versi yang disesuaikan dengan kebutuhan masing-masing bahasa dan pekerjaan.
GPT
GPT (Generative Pre-trained Transformer) adalah keluarga model bahasa berbasis transformator skala besar yang dikembangkan OpenAI yang dirancang untuk interpretasi bahasa alami dan menghasilkan aplikasi. Model GPT telah dilatih sebelumnya pada volume data teks yang sangat besar dan dapat disesuaikan untuk tugas tertentu seperti penyelesaian teks, peringkasan, dan terjemahan. Model GPT, seperti GPT-3 dan GPT-4, telah menunjukkan kemampuan luar biasa dalam membuat teks yang koheren dan relevan secara kontekstual, menjadikannya sesuai untuk berbagai aplikasi AI seperti chatbot dan asisten virtual.
Grafik Pengetahuan
Grafik pengetahuan adalah representasi informasi yang terstruktur dan teratur yang menghubungkan item dan interaksinya dengan cara seperti grafik. Penggunaan grafik pengetahuan memungkinkan sistem AI untuk menyimpan, menyortir, dan mengambil informasi dengan cepat, meletakkan dasar untuk berbagai tugas seperti menjawab pertanyaan, sistem rekomendasi, dan inferensi. Kombinasi grafik pengetahuan dengan model pemrosesan bahasa alami telah mendorong peneliti AI untuk mengembangkan sistem yang mampu mencerna data yang kompleks dan saling berhubungan serta menghasilkan tanggapan yang benar dan relevan secara kontekstual.
LLM
LLM (Model bahasa besar) adalah model kecerdasan buatan yang telah dilatih secara ekstensif pada sejumlah besar data tekstual untuk memahami dan menghasilkan prosa seperti manusia. Model-model ini dapat memperoleh pola yang rumit, nuansa kontekstual, dan pengetahuan dari data pelatihan, yang menghasilkan kemampuan luar biasa untuk menghasilkan konten yang koheren dan sesuai konteks. Seri GPT OpenAI, misalnya, telah menunjukkan kinerja luar biasa dalam berbagai tugas pemrosesan bahasa alami seperti penyelesaian teks, peringkasan, dan terjemahan.
RLHF
Metodologi RLHF (Reinforcement Learning from Human Feedback) menggabungkan pembelajaran penguatan, pendekatan pembelajaran mesin di mana agen belajar membuat keputusan dengan berinteraksi dengan lingkungannya, dengan umpan balik manusia untuk menyelaraskan tindakan agen dengan nilai dan preferensi manusia. Umpan balik manusia digunakan dalam RLHF untuk memberikan sinyal hadiah yang memandu proses pembelajaran agen, meningkatkan kemampuannya untuk memenuhi harapan manusia. Pendekatan ini telah digunakan di berbagai bidang, termasuk robotika, game, dan rekomendasi yang dipersonalisasi.
Perhatian diri
Perhatian diri adalah jenis mekanisme perhatian unik yang digunakan dalam model berbasis transformator. Ini meningkatkan kapasitas model untuk menghubungkan posisi yang berbeda dalam urutan tunggal dengan menghitung rata-rata tertimbang dari semua posisi berdasarkan relevansinya dengan posisi saat ini. Keahlian ini memungkinkan model untuk mengintegrasikan konteks lokal dan global, meningkatkan kemampuannya untuk menafsirkan dan menulis konten yang bermakna. Perhatian diri adalah komponen penting dalam model pemrosesan bahasa alami modern seperti BERT dan GPT.
Transfer Pembelajaran
Pembelajaran transfer adalah strategi pembelajaran mesin yang menggunakan pengetahuan yang dipelajari sebelumnya dari satu tugas untuk meningkatkan kinerja tugas terkait. Pembelajaran transfer untuk model bahasa besar seperti GPT dan BERT memerlukan pra-pelatihan model pada korpus data teks yang luas untuk mendapatkan pengetahuan bahasa yang lengkap, diikuti dengan menyempurnakannya pada tugas tertentu dengan kumpulan data beranotasi yang lebih kecil. Pembelajaran transfer sangat penting dalam keberhasilan model pemrosesan bahasa alami mutakhir, yang memungkinkan mereka mencapai kinerja luar biasa bahkan dengan data khusus tugas yang terbatas.
Transformator
Transformer adalah kerangka pembelajaran yang mendalam . Tujuannya adalah untuk menangani tugas urutan-ke-urutan seperti terjemahan mesin dan peringkasan teks. Transformer dibedakan oleh mekanisme self-attention-nya, yang memungkinkannya untuk secara efektif merekam ketergantungan yang luas dan hubungan timbal balik dalam data input. Kerangka kerja ini telah menjadi dasar bagi sejumlah model pemroses bahasa alami mutakhir, termasuk BERT, GPT, dan T5.
Referensi
- https://alumni.media.mit.edu/~kris/ftp/Helgason-AGI2012-AwardEdition-Final.pdf
- https://aws.amazon.com/what-is/gpt/
- https://cloud.google.com/ai-platform/training/docs/algorithms/bert-start
- https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html
- https://en.wikipedia.org/wiki/Generative_pre-trained_transformer
- https://machinelearningmastery.com/the-attention-mechanism-from-scratch/
- https://www.kdnuggets.com/2021/01/attention-mechanism-deep-learning-explained.html
- Penjelasan Karpatihttps://www.youtube.com/watch?v=kCc8FmEb1nY
- https://machinelearningmastery.com/transfer-learning-for-deep-learning/
- https://www.stardog.com/building-a-knowledge-graph/