Penciptaan & Ekstraksi Maksud Menggunakan Model Bahasa Besar

Dalam artikel sebelumnya saya berpendapat bahwa pendekatan data-centric harus diikuti untuk merekayasa data pelatihan NLU. Dalam artikel ini saya mempertimbangkan untuk membuat dan menggunakan maksud dalam konteks Model Bahasa Besar (LLM)

Perkenalan
Dalam artikel sebelumnya saya beralasan bahwa, seperti AI pada umumnya, NLU Models juga menuntut pendekatan data-centric untuk NLU Design . Meningkatkan kinerja NLU menuntut agar fokus beralih dari model NLU ke data pelatihan.
Praktik terbaik NLU Design perlu dipatuhi, di mana data tidak terstruktur percakapan yang ada diubah menjadi data pelatihan NLU terstruktur.
NLU Design idealnya tidak menggunakan data sintetik atau yang dihasilkan tetapi percakapan pelanggan yang sebenarnya.
Gambar di bawah menunjukkan proses yang dapat diikuti untuk pendekatan data centric untuk deteksi maksud, pembuatan, dan penggunaan. Menatap dengan Embedding …

1️⃣ Penyematan
Langkah pertama adalah menggunakan data percakapan atau ucapan pengguna untuk membuat penyematan, yang pada dasarnya adalah kumpulan kalimat yang mirip secara semantik.
Pengelompokan ini masing-masing merupakan suatu maksud, setiap kelompok perlu diberi label yang merupakan “nama maksud”.
Baca artikel di bawah ini untuk penjelasan mendetail tentang langkah pertama. ⬇️
Menerapkan Data-Centric AI Untuk Model NLU⭐️ Silakan ikuti saya di LinkedIn untuk pembaruan tentang AI Percakapan ⭐️
2️⃣ Buat Klasifikasi
Setelah kita memiliki pengelompokan/pengelompokan data pelatihan, kita dapat memulai proses pembuatan klasifikasi atau maksud. Istilah "kelas" dan "niat" akan digunakan secara bergantian.
Untuk keperluan artikel ini saya akan menggunakan Cohere LLM.
Klasifikasi dapat dilakukan melalui Cohere classify post endpoint:
https://api.cohere.ai/classify
Tubuh teks pelatihan diklasifikasikan ke dalam salah satu dari beberapa kelas/maksud. Titik akhir hanya memerlukan beberapa contoh untuk membuat pengklasifikasi yang memanfaatkan model generatif.
Cuplikan notebook Colab di bawah menunjukkan cara menginstal Cohere SDK, dan cara membuat klien. Anda memerlukan kunci API yang bisa Anda dapatkan secara gratis dengan membuat login di situs web Cohere .

Untuk alasan pengoptimalan dan kecepatan, yang terbaik adalah menggunakan model kecil.
Setelah Anda menginstal SDK dan membuat Klien Anda, jalankan kode ini ⬇️ untuk membuat maksud.
Masing-masing dengan contoh pelatihan…
from cohere.classify import Example
examples = [
Example("Do you offer same day shipping?", "Shipping and handling policy"),
Example("Can you ship to Italy?", "Shipping and handling policy"),
Example("How long does shipping take?", "Shipping and handling policy"),
Example("Can I buy online and pick up in store?", "Shipping and handling policy"),
Example("What are your shipping options?", "Shipping and handling policy"),
Example("My order arrived damaged, can I get a refund?", "Start return or exchange"),
Example("You sent me the wrong item", "Start return or exchange"),
Example("I want to exchange my item for another colour", "Start return or exchange"),
Example("I ordered something and it wasn't what I expected. Can I return it?", "Start return or exchange"),
Example("What's your return policy?", "Start return or exchange"),
Example("Where's my package?", "Track order"),
Example("When will my order arrive?", "Track order"),
Example("What's my shipping number?", "Track order"),
Example("Which carrier is my package with?", "Track order"),
Example("Is my package delayed?", "Track order")
]
Shipping and handling policy
Start return or exchange
Track order
⭐️ Silakan ikuti saya di LinkedIn untuk pembaruan tentang AI Percakapan ⭐️
3️⃣ Klasifikasi Ekstrak
Teks di bawah menunjukkan kueri, analog dengan ucapan pengguna yang dikirimkan ke agen percakapan…
inputs=[" Am I still able to return my order?",
"When can I expect my package?",
"Do you ship overseas?",
]
( 1 ) Masukan atau permintaan ucapan dapat disampaikan
( 2 ) Klasifikasi diekstraksi
( 3 ) hasilnya dicetak
Sebagian dari notebook Colab menunjukkan langkah 1, 2, dan 3 ⬇️

Hasil:
[
"Classification<prediction":"Start return or exchange",
"confidence":0.9900205>,
"Classification<prediction":"Track order",
"confidence":0.99867964>,
"Classification<prediction":"Shipping and handling policy",
"confidence":0.9982495>
]
Niat sering diabaikan dan dilihat sebagai langkah yang tidak signifikan dalam penciptaan agen percakapan. Framework seperti Amelia, Oracle Digital Assistant, dan Yellow AI menawarkan frase pelatihan yang dihasilkan secara sintetis. Pendekatan ini dapat menimbulkan bahaya menyepelekan proses pembuatan maksud.
Data pelatihan sintetik dapat mencukupi sebagai tindakan bootstrap, tetapi tidak akan berfungsi dengan baik dalam menciptakan solusi jangka panjang yang berkelanjutan. Praktik Terbaik Desain dan Data NLU harus dipatuhi sejak awal.
Selain itu, frasa pelatihan sintetik ini didasarkan pada maksud dan nama maksud yang sering "dipikirkan" yang kemungkinan besar tidak selaras dengan maksud pengguna yang ada. Dan jelas tidak membahas distribusi niat yang panjang .
Sudah saatnya kita mulai mempertimbangkan niat sebagai klasifikasi percakapan pelanggan yang ada; proses pengembangan yang digerakkan oleh niat diperlukan untuk penerapan asisten digital yang berhasil.

⭐️ Silakan ikuti saya di LinkedIn untuk pembaruan tentang AI Percakapan ⭐️

Saat ini saya adalah Ketua Penginjil @ HumanFirst . Saya menjelajahi dan menulis tentang semua hal di persimpangan AI dan bahasa; mulai dari LLM , Chatbots , Voicebots , Kerangka Pengembangan, ruang laten Data-Centric dan banyak lagi.




