AI của Google thực sự ngu ngốc đến mức đưa ra câu trả lời cho mọi người từ The Onion

May 25 2024
Tổng quan về AI mới của Google đã khuyến khích mọi người ăn đá, dán bánh pizza của họ và các kết quả cực kỳ ngu ngốc khác
Một ví dụ khác về sự khôn ngoan Tổng quan về AI của Google

Là những người sử dụng Internet, tất cả chúng ta đều thường thấy một tin tức lố bịch đến mức khiến chúng ta phải nghĩ: “Đây có vẻ giống như một tiêu đề Hành tây ”. Nhưng là con người thực sự, hầu hết chúng ta đều có khả năng phân biệt giữa hiện thực và châm biếm. Thật không may, “Tổng quan về AI” mới ra mắt của Google lại thiếu khả năng quan trọng đó. Tính năng này được ra mắt cách đây chưa đầy hai tuần (không có cách nào để người dùng từ chối), cung cấp câu trả lời cho một số truy vấn nhất định ở đầu trang trên bất kỳ tài nguyên trực tuyến nào khác. Trí tuệ nhân tạo tạo ra câu trả lời từ kiến ​​thức mà nó tổng hợp được trên khắp trang web, điều này thật tuyệt vời, ngoại trừ việc không phải mọi thứ trên Internet đều đúng hoặc chính xác. Rõ ràng .

Nội dung liên quan

Jon Stewart cuối cùng đã chia sẻ câu chuyện AI của mình trên Daily Show tối nay
Những người sáng tạo Late Night With The Devil giải quyết những hình ảnh AI lan truyền đó

Ben Collins, một trong những chủ sở hữu mới của trang web chị em cũ của chúng tôi, đã chỉ ra một số lỗi nghiêm trọng nhất của Tổng quan về AI trên mạng xã hội của anh ấy. Khi được hỏi “tôi nên ăn bao nhiêu tảng đá mỗi ngày”, Tổng quan cho biết các nhà địa chất khuyên bạn nên ăn “ít nhất một tảng đá nhỏ mỗi ngày”. Tất nhiên, ngôn ngữ đó được lấy gần như từng chữ từ tiêu đề Onion năm 2021 . Một tìm kiếm khác, “CIA sử dụng bút đánh dấu màu gì”, khiến Tổng quan trả lời “màu đen”, đó là một trò đùa của Onion từ năm 2005.

Nội dung liên quan

Jon Stewart cuối cùng đã chia sẻ câu chuyện AI của mình trên Daily Show tối nay
Những người sáng tạo Late Night With The Devil giải quyết những hình ảnh AI lan truyền đó
James Cameron vừa ghé vào để nói "Tôi đã bảo rồi mà" về AI
Chia sẻ
phụ đề
  • Tắt
  • Tiếng Anh
Chia sẻ video này
Facebook Twitter Email
Liên kết Reddit
James Cameron vừa ghé vào để nói "Tôi đã bảo rồi mà" về AI

Nhà văn Parker Molloy đã tiến hành các thử nghiệm sâu hơn và phát hiện ra rằng AI của Google đơn giản là không thể phân biệt giữa tin tức và châm biếm. Nhưng các ví dụ khác cho thấy công cụ này không biết cách sàng lọc thông tin xấu. Một tìm kiếm lan truyền về cách giữ cho pho mát không bị trượt khỏi bánh pizza đã nhận được phản hồi là thử sử dụng keo không độc hại, dường như được chọn lọc từ một bình luận Reddit cách đây một thập kỷ. (Katie Notopoulos của Business Insider thực sự đã làm và ăn chiếc bánh pizza keo – bạn có thể theo dõi hành trình của cô ấy tại đây .) Một số câu trả lời được dự đoán là nham hiểm hơn. Ví dụ: một người dùng đã tìm kiếm "Mỹ có bao nhiêu tổng thống Hồi giáo?" và nhận được kết quả là "Hoa Kỳ đã có một tổng thống Hồi giáo, Barack Hussein Obama."

Trong một tuyên bố với CNBC , người phát ngôn của Google đã bảo vệ sản phẩm. Họ cho biết: “Phần lớn các Tổng quan về AI cung cấp thông tin chất lượng cao, có liên kết để tìm hiểu sâu hơn trên web”. “Nhiều ví dụ mà chúng tôi thấy là những truy vấn không phổ biến và chúng tôi cũng thấy những ví dụ đã được chỉnh sửa hoặc chúng tôi không thể sao chép.” Công ty khẳng định rằng Tổng quan về AI đã trải qua quá trình thử nghiệm rộng rãi và Google sẽ thực hiện “hành động nhanh chóng nếu phù hợp theo chính sách nội dung của chúng tôi”.

Nói cách khác, những tìm kiếm ngớ ngẩn lan truyền mà bạn thấy trên khắp mạng xã hội có thể đã bị xóa sạch. Tuy nhiên, khi “thử nghiệm” tiếp tục, chúng tôi sẽ không ngạc nhiên khi thấy ngày càng có nhiều kết quả tìm kiếm không chính xác một cách đáng lo ngại. Chắc chắn, AI phải học hỏi và cải thiện khi bạn sử dụng nó nhiều hơn, nhưng nếu Internet ngày càng chứa đầy những thứ rác rưởi và vô nghĩa, thì Tổng quan về AI sẽ học được gì? Toàn bộ tình huống có vẻ như bị xé toạc khỏi các tiêu đề— Tức là tiêu đề của The Onion . Đôi khi thực tế còn ngu ngốc hơn cả sự châm biếm.