Keamanan Siber ChatGPT

May 06 2023
Jadi, ChatGPT telah menjadi target serangan keamanan siber. Baru-baru ini, teridentifikasi bahwa bug di perpustakaan sumber terbukanya menyebabkan pelanggaran data, dan di mana baru-baru ini "ditidurkan" untuk sementara waktu: Sebenarnya, meskipun dikatakan bahwa tingkat pelanggaran data rendah, angka 1.
Foto oleh Andrea De Santis di Unsplash

Jadi, ChatGPT telah menjadi target serangan keamanan siber. Baru-baru ini, teridentifikasi bahwa bug di pustaka sumber terbukanya menyebabkan pelanggaran data, dan di mana baru-baru ini "ditidurkan" untuk sementara waktu:

Sebenarnya, meskipun tingkat pelanggaran data dikatakan rendah, angka 1,3% dapat membuat jumlah pengguna yang dilanggar hampir satu juta. Pustaka yang ditargetkan terkait dengan pustaka sumber terbuka Redis dan membuka riwayat obrolan pengguna aktif. Dalam kode, Redis digunakan untuk menghapus cache pesan dan balasan pengguna.

Faktanya, serangan rantai pasokan perangkat lunak adalah salah satu rute yang berkembang pesat untuk berkompromi. Namun, pelanggaran data hanyalah sebagian kecil dari kemungkinan kerentanan, karena tim OpenAI menemukan bahwa itu mungkin bertanggung jawab untuk mengungkapkan informasi pembayaran beberapa jam sebelum mereka membuatnya offline. Perincian ini tidak mengungkapkan perincian lengkap kartu kredit, tetapi hanya empat digit terakhir dari nomor kartu kredit dan tanggal kedaluwarsa kartu kredit. Namun, di bawah GDPR, ini dapat dilihat sebagai pelanggaran data yang signifikan.

Bocor di semua tempat

Namun, pelanggaran data membuka banyak pertanyaan tentang keamanan sebenarnya dari ChatGPT, yang dapat menyebabkan sejumlah besar denda untuk kebocoran. Ini karena sejumlah besar data perlu disimpan yang digunakan untuk melatih dan melatih ulang model. Sama seperti kita, kita menyimpan banyak hal dalam ingatan kita dan dapat membocorkan rahasia apa pun yang kita miliki kepada siapa pun yang kita temui.

Dengan demikian, memori dan penyimpanan ChatGPT cenderung menjadi permukaan serangan utama, terutama dalam membocorkan informasi antara obrolan pengguna dan gagal menerapkan pendekatan etika dan kepatuhan data yang ketat. Yang paling sulit dari semuanya mungkin adalah GDPR, yang memiliki prinsip dasar seputar hak untuk dilupakan. Ini bukan tugas yang mudah untuk ChatGPT, karena harus menahan dan meminta yang berhubungan dengan orang tertentu atau kekayaan intelektual tertentu. Baru-baru ini, Italia memblokir akses ke ChatGPT karena tidak mematuhi GDPR.

Jadi, tindakan keras sudah terjadi di beberapa perusahaan, agar staf tidak membocorkan informasi sensitif ke ChatGPT. JPMorgan Chase adalah salah satu perusahaan yang membatasi akses dan penggunaan perangkat lunak pihak ketiga. Cara menangani informasi keuangan juga bisa menjadi area masalah utama bagi bot.

Sisi permusuhan dari ChatGPT

Dan, sisi permusuhan dari ChatGPT dapat melihatnya digunakan untuk menghasilkan email phishing tombak, karena mengatasi ejaan dan tata bahasa yang buruk di masa lalu. Faktanya, ChatGPT dapat digunakan untuk menargetkan orang tertentu, dengan informasi yang difokuskan pada mereka:

Dear Bob,

Your daughter - Alice - has fallen at Cyber School and has broken her leg. 
We have taken her to Eve's Hospital on Main Street. You will find directions
to the hospital in the email attached. Please do not worry about her condition
as she does not seem to be in any pain, but we ask you to follow the steps 
defined in the attachment.

Your Sincerly,

Eve (Principal of Cyber School)

Dear Reciptiant

Your daugher has fallen at schoool and has leg broken. She is now in hosptal.
Open attachment and read the word to find the place and doctor appoitment. Help
is needed for you.

Be kind and respect

Doctor Kim 
Medical Lead

Kekhawatiran juga dapat berasal dari ulasan berbahaya dan tidak terlalu berbahaya yang ditulis tentang produk, dan di mana ChatGPT dapat terus digunakan untuk menulis ulasan palsu dan terlihat hampir seperti gaya yang akan digunakan oleh pengulas online.

Hadiah bug untuk beberapa ChatGPT

OpenAI, bagaimanapun, melawan balik dengan hadiah bugnya sendiri sebesar $20K untuk menemukan bug. Sayangnya, ini tidak mencakup penulisan kode berbahaya yang sebenarnya, dan hanya kode yang digunakan OpenAI:

Kesimpulan

Saya memiliki presentasi minggu ini, dan tidak akan menahan risiko AI: