An ninh mạng của ChatGPT

Và do đó, ChatGPT đã trở thành mục tiêu cho các cuộc tấn công an ninh mạng. Gần đây, người ta đã xác định rằng một lỗi trong thư viện mã nguồn mở của nó đã gây ra vi phạm dữ liệu và nơi gần đây đã bị “ngủ yên” trong một thời gian:

Trên thực tế, mặc dù người ta nói rằng mức độ vi phạm dữ liệu thấp, nhưng con số 1,3% có thể khiến số lượng người dùng bị vi phạm lên tới gần một triệu. Thư viện được nhắm mục tiêu có liên quan đến thư viện nguồn mở Redis và mở ra lịch sử trò chuyện của những người dùng đang hoạt động. Trong mã, Redis được sử dụng để xóa bộ đệm của tin nhắn và trả lời của người dùng.
Trên thực tế, các cuộc tấn công chuỗi cung ứng phần mềm là một trong những con đường phát triển nhanh chóng để thỏa hiệp. Tuy nhiên, vi phạm dữ liệu chỉ là một phần nhỏ trong số các lỗ hổng có thể xảy ra, vì nhóm OpenAI nhận thấy rằng họ có thể phải chịu trách nhiệm về việc tiết lộ thông tin thanh toán trong vài giờ trước khi họ đưa thông tin đó vào chế độ ngoại tuyến. Những chi tiết này không tiết lộ toàn bộ chi tiết thẻ tín dụng mà chỉ tiết lộ bốn chữ số cuối của số thẻ tín dụng và ngày hết hạn của thẻ tín dụng. Tuy nhiên, theo GDPR, điều này có thể được coi là vi phạm dữ liệu nghiêm trọng.
Rò rỉ khắp nơi
Tuy nhiên, việc vi phạm dữ liệu đặt ra rất nhiều câu hỏi về tính bảo mật thực sự của ChatGPT, điều này có thể dẫn đến một số tiền phạt đáng kể do rò rỉ. Điều này là do một lượng lớn dữ liệu cần được lưu trữ được sử dụng để đào tạo và đào tạo lại mô hình. Cũng giống như chúng ta, chúng ta lưu giữ mọi thứ trong trí nhớ của mình và có thể tiết lộ bất kỳ bí mật nào mà chúng ta có cho bất kỳ ai chúng ta gặp.
Do đó, bộ nhớ và bộ lưu trữ của ChatGPT có thể là bề mặt tấn công chính, đặc biệt là trong việc rò rỉ thông tin giữa các cuộc trò chuyện của người dùng và không thực hiện các phương pháp tuân thủ dữ liệu và đạo đức nghiêm ngặt. Điều khó khăn nhất có lẽ là GDPR, có nguyên tắc nền tảng xung quanh quyền được lãng quên. Đây không phải là một nhiệm vụ dễ dàng đối với ChatGPT vì nó thực sự phải giữ và yêu cầu liên quan đến một người cụ thể hoặc tài sản trí tuệ cụ thể. Gần đây, Ý đã chặn quyền truy cập vào ChatGPT vì nó không tuân thủ GDPR.
Và do đó, một cuộc đàn áp lớn đã xảy ra ở một số công ty, để nhân viên không tiết lộ thông tin nhạy cảm cho ChatGPT. JPMorgan Chase là một trong những công ty đang hạn chế quyền truy cập vào nó và trong việc sử dụng phần mềm của bên thứ ba. Cách nó xử lý thông tin tài chính cũng có thể là một vấn đề lớn đối với bot.
Mặt trái của ChatGPT
Và, phía đối thủ của ChatGPT có thể thấy nó được sử dụng để tạo email lừa đảo trực tuyến, vì nó khắc phục lỗi chính tả và ngữ pháp kém trong quá khứ. Trên thực tế, ChatGPT có thể được sử dụng để nhắm mục tiêu những người cụ thể, với thông tin tập trung vào họ:
Dear Bob,
Your daughter - Alice - has fallen at Cyber School and has broken her leg.
We have taken her to Eve's Hospital on Main Street. You will find directions
to the hospital in the email attached. Please do not worry about her condition
as she does not seem to be in any pain, but we ask you to follow the steps
defined in the attachment.
Your Sincerly,
Eve (Principal of Cyber School)
Dear Reciptiant
Your daugher has fallen at schoool and has leg broken. She is now in hosptal.
Open attachment and read the word to find the place and doctor appoitment. Help
is needed for you.
Be kind and respect
Doctor Kim
Medical Lead
Một điều đáng lo ngại nữa có thể là từ các bài đánh giá độc hại và không quá độc hại được viết về sản phẩm và nơi ChatGPT có thể liên tục được sử dụng để viết các bài đánh giá giả mạo và trông gần giống phong cách mà người đánh giá trực tuyến sẽ sử dụng.
Tiền thưởng lỗi cho một số ChatGPT
Mặc dù vậy, OpenAI đang chiến đấu trở lại với khoản tiền thưởng lỗi trị giá 20 nghìn đô la của riêng mình để tìm ra lỗi. Thật không may, nó không đề cập đến cách viết mã độc thực sự và chỉ mã mà OpenAI sử dụng:

kết luận
Tôi có một bài thuyết trình trong tuần này và sẽ không nương tay với những rủi ro của AI:
