Về thuyết nhân hóa AI

Apr 27 2023
của Ben Shneiderman (Đại học Maryland, Hoa Kỳ) và Michael Muller (Nghiên cứu của IBM, Hoa Kỳ) Giới thiệu Thuyết nhân hóa là hành động thể hiện những phẩm chất hoặc hành vi giống con người lên các thực thể không phải con người, chẳng hạn như khi con người cho động vật, đồ vật hoặc hiện tượng tự nhiên những đặc điểm hoặc cảm xúc giống con người. Đã có những cuộc tranh luận lâu dài về việc sử dụng các thiết kế hình người cho các hệ thống dựa trên AI, kéo dài trở lại (ít nhất) cho một hội thảo ban đầu tại Hội nghị Tương tác giữa Người và Máy tính ACM có tiêu đề, “Thuyết hình người: từ ELIZA đến Kẻ hủy diệt 2” (Don et al.

của Ben Shneiderman (Đại học Maryland, Hoa Kỳ) và Michael Muller (Nghiên cứu của IBM, Hoa Kỳ)

Bản chất của AI là một công cụ hay một tác nhân xã hội được nhân hóa? Nguồn: DreamStudio.

Giới thiệu

Thuyết nhân hóa là hành động thể hiện những phẩm chất hoặc hành vi giống con người lên các thực thể không phải con người, chẳng hạn như khi con người gán cho động vật, đồ vật hoặc hiện tượng tự nhiên những đặc điểm hoặc cảm xúc giống con người. Đã có những cuộc tranh luận lâu dài về việc sử dụng các thiết kế hình người cho các hệ thống dựa trên AI, kéo dài trở lại (ít nhất) cho một hội thảo ban đầu tại Hội nghị Tương tác giữa Người và Máy tính ACM có tiêu đề, “Thuyết hình người: từ ELIZA đến Kẻ hủy diệt 2” (Don và cộng sự, 1992).

Các vấn đề thiết kế xung quanh thuyết nhân hóa bao gồm liệu:

  1. một nhân vật giống như đặc vụ của con người sẽ được hiển thị trên màn hình,
  2. máy tính nên thể hiện mình là tác nhân xã hội giống con người với giao diện người dùng bằng văn bản hoặc giọng nói,
  3. lời nhắc hoặc phản hồi của máy tính nên sử dụng đại từ nhân xưng ngôi thứ nhất, ví dụ: “Tôi rất vui được giúp bạn”, và
  4. người dùng thích các thiết kế thao tác trực tiếp , thay thế cho phép họ nhấp, kéo, thu phóng hoặc chạm.

Michael và Ben tiếp tục trao đổi ghi chú trong tháng 3 và tháng 4 năm 2023, và Eds. Chenhao Tan, Justin Weisz, và Werner Geyer đề nghị nên công khai lập luận của họ. Bài viết này đại diện cho một phiên bản trao đổi email được chỉnh sửa nhẹ, được chia thành bốn phần:

  • Phần I — Về thuyết nhân hóa
  • Phần II - Các hệ thống máy tính hình người
  • Phần III - Thông minh, không thông minh, hay một sự liên tục?
  • Phần IV — Về việc sử dụng “tôi”

Trong quá trình trao đổi, những người khác đã được đưa vào cuộc trò chuyện để thêm bình luận và quan điểm. Chúng tôi sẽ công bố quan điểm của họ trong các bài báo sắp tới ( xem danh sách bên dưới ). Nếu bạn muốn thêm giọng nói của mình vào danh sách kết hợp, vui lòng liên hệ với Chenhao Tan .

cuộc tranh luận

Phần I — Về thuyết nhân hóa

Ben Shneiderman : Một mối quan tâm đặc biệt mà tôi có là cách đầu ra của GPT-4 sử dụng đại từ nhân xưng ngôi thứ nhất, gợi ý rằng đó là con người, ví dụ: “Tôi xin lỗi, nhưng tôi không thể giúp bạn với yêu cầu đó.” Giải pháp thay thế đơn giản là “GPT-4 đã được OpenAI thiết kế để nó không phản hồi các yêu cầu như yêu cầu này” sẽ làm rõ trách nhiệm và tránh việc sử dụng đại từ nhân xưng ngôi thứ nhất gây hiểu lầm. Trong thế giới của tôi, máy móc không phải là “tôi” và không nên giả vờ là con người.

Michael Muller : Đầu tiên, con người chúng ta đã coi các tạo tác và thực thể tự nhiên như những sinh vật giống người trong một thời gian rất dài. Demetrius of Phelerum đã viết về prosopopoeia (nhân cách hóa) trước năm 280 TCN. Mục Wikipedia về prosopopoeia cung cấp một ví dụ từ Sách Sirach, trong đó “Sự khôn ngoan ca ngợi chính mình, / giữa những người của mình, cô ấy tuyên bố vinh quang của mình.” Có nhiều câu chuyện kể về những sinh vật được tạo ra mang hình thức nhận thức hoặc cơ quan, từ golem lịch sử (không phải người Tolkien, được gọi là “gollum”) đến Mary Wollstonecraft Shelley và tất cả đều quay trở lại huyền thoại về Pygmalion và Galatea.

Vì vậy, tôi nghĩ rằng có rất nhiều tiền lệ để chúng ta coi những thứ được tạo ra là có phẩm chất giống con người. Reeves và Nass (1996) theo đuổi khái niệm này như một chương trình nghiên cứu, cụ thể là về máy tính với tư cách là tác nhân xã hội. Xem thêm bài phê bình của tôi về vị trí của họ trong Tương tác với Máy tính (Muller, 2004), trong đó tôi đã xem lại lịch sử nhân cách hóa lâu dài hơn.

Thứ hai, bây giờ chúng ta đang khám phá ý nghĩa của việc một thuật toán trở thành một đối tác đàm thoại không xác định. Tôi đồng ý rằng các LLM là những con vẹt ngẫu nhiên, và do đó không có “tâm trí”. Tuy nhiên, họ có một sự hiện diện xã hội thuyết phục. Chúng tôi chưa biết mình có thể làm gì với sự hiện diện xã hội đó. (Tôi nói “làm” theo nghĩa thực dụng của “chúng ta có thể sử dụng nó để làm gì.”) Ngoài tất cả những quảng cáo cường điệu về AI gây khó chịu (và đôi khi nguy hiểm) hiện nay, có những câu hỏi nghiên cứu ở đây về loại thực thể chúng ta đang xây dựng và về làm thế nào chúng ta sẽ liên quan đến họ. IMHO, chúng tôi chưa biết.

Tôi nghi ngờ rằng chúng ta sẽ cần chia nhỏ hệ nhị phân con người/không phải con người của mình thành một chiều hoặc nhiều chiều. Theo cách suy nghĩ thông thường của EuroWestern, chúng ta đã làm điều này trong mối quan hệ của chúng ta với động vật. Đối với hầu hết chúng ta, một tảng đá chỉ là một tảng đá (nhưng lưu ý rằng một số triết lý của người bản địa và thổ dân sẽ thách thức tuyên bố đó). Tương tự như vậy, một số loài động vật - chẳng hạn như sa giông - chỉ có tư cách con người thú vị trong tác phẩm của Capek (Capek và cộng sự, 1996), chứ không phải trong các tương tác của chúng ta với chúng (và tôi nhớ rằng tác phẩm đồng hành của Capek về các mối quan hệ đã sai lầm, là về người máy (Capek, 2004)). Elizabeth Phillips và các đồng nghiệp (2016) đã khám phá mối quan hệ sâu sắc hơn mà chúng ta có với một số loài động vật, với chó là ví dụ chính về sự hiện diện xã hội. Xem thêm các khái niệm của Haraway (2003) về các loài đồng hành, và tác phẩm hấp dẫn của Fijn (2011) về mối quan hệ của con người với những chú ngựa con bằng thòng lọng Mông Cổ. Và vì vậy, có những mức độ khác nhau để xem xét, thay vì sự phân biệt đơn giản giữa con người/không phải con người liên quan đến động vật.

Phillips và cộng sự. (2016) đang sử dụng mối quan hệ giữa con người và động vật để suy nghĩ về mối quan hệ giữa con người và AI. Tôi nghĩ rằng, giống như với động vật, có những mức độ xã hội, hoặc mức độ hiện diện xã hội, có thể áp dụng cho những thứ tính toán. Tôi không nghĩ chúng ta biết đủ để tịch thu những khả năng này.

Nếu bạn hỏi tôi về các chủ đề trong bài viết của bạn về lừa đảo và thao túng, thì tôi sẽ ở ngay bên cạnh bạn về việc bảo vệ mọi người và tôi sẽ ủng hộ các quy định nghiêm ngặt để bảo vệ mọi người khỏi những AI giả danh con người để lừa gạt mọi người. Đối với tôi, đó là một tập hợp các mối quan tâm riêng biệt với cách chúng ta khám phá các công nghệ mới, công nghệ mới được công bố và công nghệ mới được diễn giải lại (tất cả đều có thể được sử dụng để cân nhắc các tương lai có thể xảy ra), miễn là các khám phá của chúng ta là trung thực, đầy đủ- tiết lộ, và không có ác ý.

Phần II - Các hệ thống máy tính hình người

Ben Shneiderman: Vâng, tôi đồng ý rằng tư cách con người đã được sử dụng cho các hiện vật của Aristotle và sẽ tiếp tục được sử dụng. Tôi không nghĩ rằng tôi có thể giết chết ý tưởng zombie này.

Tuy nhiên, ý tưởng zombie có thể có những tác động có vấn đề. Đối với một người dùng đồ tạo tác bình thường, việc tạo các tham chiếu giống con người cho thuyền, ô tô hoặc Roombas là một chuyện, nhưng tôi thấy đó là một vấn đề khi các nhà thiết kế sử dụng ngôn ngữ đó, dẫn đến sản phẩm kém chất lượng. Lịch sử lâu dài của các hệ thống hình người thất bại đã có từ trước cả Microsoft BOB và Clippie, nhưng nó vẫn tiếp tục tạo ra những thất bại hàng tỷ đô la. Sai lầm thiết kế chết người nghiêm trọng gần đây nhất là việc Elon Musk khăng khăng rằng vì người lái xe chỉ sử dụng mắt nên những chiếc Tesla của ông sẽ chỉ sử dụng video. Bằng cách ngăn chặn việc sử dụng radar hoặc LIDAR, trước sự phản đối của các kỹ sư của mình, anh ấy đã thiết kế một hệ thống dưới mức tối ưu tạo ra kết quả chết người.

Đối với tôi, ẩn dụ quan trọng (Lakoff & Johnson, 2006), vì vậy các nhà thiết kế nên cảnh giác với việc niềm tin của họ rằng máy tính nên giao tiếp bằng ngôn ngữ tự nhiên, giống như con người, dẫn đến việc họ không sử dụng các khả năng của máy tính như hiển thị hình ảnh dồi dào thông tin. thông tin.

Nhà xã hội học Lewis Mumford hỗ trợ thêm cho việc chuyển đổi từ thuyết hình người sang các thiết kế giúp người dùng kiểm soát tốt hơn. Tôi bị ảnh hưởng mạnh mẽ bởi cuốn sách kinh điển của ông ấy, Technics and Civilization (1936) ,trong đó đưa ra một phân tích rõ ràng trong chương về “Trở ngại của thuyết vật linh”. Mumford mô tả các thiết kế ban đầu dựa trên mô hình người hoặc động vật là một trở ngại cần phải vượt qua trong việc phát triển các công nghệ mới như thế nào: “loại máy móc kém hiệu quả nhất là mô phỏng cơ học thực tế của một người đàn ông[/phụ nữ] hoặc một con vật khác”. Quan điểm của Mumford là các khả năng đặc biệt của công nghệ, chẳng hạn như bánh xe, động cơ phản lực hoặc màn hình máy tính có độ phân giải cao có thể bị bỏ qua nếu các nhà thiết kế gắn bó với khái niệm “lấy cảm hứng từ sinh học”, chẳng hạn như giao diện đàm thoại. Do đó, có thể hiểu rằng cụm từ hình người sẽ được cung cấp như một thiết kế ban đầu cho các hệ thống AI, nhưng vượt qua giai đoạn này sẽ cho phép các nhà thiết kế tận dụng tốt hơn các thuật toán tinh vi, cơ sở dữ liệu khổng lồ, cảm biến siêu phàm, màn hình phong phú thông tin,

Michael Muller : Đối với tôi, câu hỏi cốt lõi là: “Làm thế nào con người có thể liên hệ với trí thông minh không phải con người?” Thuyết nhân hóa là một phản ứng có thể xảy ra, nhưng không phải là phản ứng duy nhất và không phải là chủ đề liên quan duy nhất.

Bạn và tôi đồng ý rằng từ ngữ quan trọng và phép ẩn dụ quan trọng. Đó là lý do tại sao tôi rất quan tâm đến công việc của Phillips et al. (2016). Họ đang tìm kiếm những phép ẩn dụ hữu ích (số nhiều) cho AI (số nhiều) bằng cách xem xét mối quan hệ của con người với động vật. Điều đó đúng, theo một cách khác, trong nhiều tác phẩm của Haraway (2003).

Như tôi đã viết trước đó, ngôn ngữ của tôi cho câu hỏi được chia sẻ của chúng tôi là: “Làm thế nào con người có thể liên quan đến trí tuệ phi nhân loại?” Đối với tôi, điều đó gần với vấn đề cốt lõi hơn và thuyết nhân hình là một câu hỏi phụ trong số nhiều khám phá khả dĩ về các thực thể kỳ lạ không phải con người. Thuyết nhân hóa là một cách tiếp cận ẩn dụ đối với những ý tưởng mới và thực thể mới. Theo quan điểm của tôi, phép ẩn dụ trở thành những hình tượng của tư duy, qua đó chúng ta có thể nói lên một số điều kỳ lạ đó. (Theo lý thuyết tu từ đương đại, tôi đã viết “các hình tượng của tư tưởng” (ví dụ: Lakoff, 1986; Lakoff & Johnson, 2008) chứ không chỉ là “các hình tượng và lời nói,” và một lần nữa tôi nghĩ chúng ta đồng ý.) Tôi muốn chúng ta khám phá các phép ẩn dụ về các LLM, để giúp chúng ta suy nghĩ về “chúng” là gì, cũng như chúng có thể là gì hoặc có thể trở thành gì.

Diễn đạt theo cách đó, tôi hy vọng rằng việc chúng ta sử dụng ngôn ngữ (con người) có thể giúp chúng ta mở ra một không gian khái niệm về bản chất của những thứ máy tính mà chúng ta đang tạo ra và tương tác. Tôi nghĩ phép ẩn dụ sẽ hữu ích, và phạm trù loại suy rộng hơn cũng vậy. Những thứ này bây giờ RẤT nhiều lớp. Ví dụ: trong khi mọi người đang nói về LLM và FM, một số người trong chúng tôi (bao gồm cả bạn và tôi) đang suy nghĩ kỹ về giao diện người dùng cho các LLM đó.

Lớp LLM có lẽ là “chúng tôi” - xét cho cùng, nó chứa các vật liệu được thu hoạch không theo sự đồng thuận từ hàng trăm nghìn người. Hoặc có lẽ tôi nên nói "tài liệu bị bắt". Hay “tiếng nói bị đánh cắp.”

Lớp giao diện người dùng có thể là “tôi”, bởi vì đó là kiểu tương tác có vẻ phù hợp với con người chúng ta. Tôi nghĩ bạn sẽ thích lớp giao diện người dùng là “nó” hơn - hoặc có lẽ nó nên ám chỉ chính nó ở ngôi thứ ba, giống như người phụ tá bị thương (người lính cyborg) trong sách Imperial Radch của Ann Leckie (Leckie, 2013), người cố gắng ngăn cản nỗ lực giải cứu bằng cách nói, “Thuyền trưởng hạm đội… với tất cả sự tôn trọng, vết thương này quá nghiêm trọng nên không thể sửa chữa được.”

Đặc biệt, tôi quan tâm đến việc mở ra các khả năng hơn là ngăn chặn các thất bại. Vâng, Clippy và BOB đã thất bại, nhưng điều đó không có nghĩa là tất cả các nhân cách hóa sẽ thất bại. Các thử nghiệm của chúng tôi với giao diện người dùng được cá nhân hóa cho LLM đã khá thành công. Không ai sử dụng nguyên mẫu Trợ lý lập trình viên của chúng tôi (Ross et al. 2023) nhầm lẫn về trạng thái bản thể học của nó. Không ai nhầm nó với bất cứ thứ gì khác ngoài một chiếc máy nướng bánh mì thông minh, nhưng hóa ra nó lại là một chiếc máy nướng bánh mì thông minh rất hữu ích. (Không phải “thông minh biến đổi”, mà chỉ là “hữu ích biến đổi.”) Vì vậy, bây giờ chúng ta có Clippie và BOB làm ví dụ về những thất bại, nhưng chúng ta cũng có Trợ lý Lập trình viên làm ví dụ về thành công (và có lẽ một số Nass và Reeves cũ hơn) thí nghiệm nữa). Thuyết nhân hóa không nhất thiết dẫn đến các vấn đề.

IMHO, UI cho LLM là một không gian thiết kế thực sự mới. Chúng tôi vẫn chưa biết những yếu tố quan trọng của không gian này là gì. Tôi nghi ngờ rằng những yếu tố đó sẽ tương tác với nhau. Ví dụ, khi nào nhân hóa có lợi và khi nào có hại? (nghĩa là những yếu tố nào khác tương tác với việc nhân cách hóa?) Khi chúng ta viết thông điệp HCXAI (và thông điệp ngụ ý), thuộc tính nào sẽ quan trọng, khi nào và cho ai? Ví dụ, xem bài báo của Upol Ehsan và Samir Passi về XAI với hai nhóm người dùng và ba thể loại tin nhắn (Ehsan et al., 2021). Và những “công cụ tư duy” nào (ví dụ: số liệu tư duy) có thể giúp chúng ta khám phá không gian thiết kế mới này?

Phần III - Thông minh, không thông minh, hay một sự liên tục?

Ben Shneiderman: Michael gợi ý rằng câu hỏi chung của chúng ta là “Làm thế nào con người có thể liên hệ với trí thông minh không phải con người?” Nhưng tôi không đồng ý rằng máy móc nên được mô tả là thông minh. Tôi dành một số từ như nghĩ, biết, hiểu, thông minh, kiến ​​thức, trí tuệ, v.v. cho con người và tìm những từ khác để mô tả những gì máy móc làm. Tôi đã làm điều này trong tất cả sáu ấn bản của Thiết kế giao diện người dùng (2016) và tôi nghĩ đó là một quyết định hữu ích quan trọng.

Đọc cuốn sách của Simone Natale (2021) sẽ rất hữu ích. Ông nói rằng robot hình người và hình người là một ý tưởng hấp dẫn, nhưng trước đây chúng đã dẫn đến những sản phẩm thất bại. Anh ấy mô tả “sự lừa dối tầm thường” của nhiều ứng dụng và “sự lừa dối có chủ ý thẳng thắn”, cả hai đều là “trung tâm của hoạt động của AI như các mạch, phần mềm và dữ liệu giúp nó chạy”. Natale có những hiểu biết sâu sắc tuyệt vời về việc mọi người sẵn sàng bị lừa dối.

Tôi tôn trọng Michael và sự cống hiến lâu dài của anh ấy đối với thiết kế có sự tham gia và coi anh ấy như một đồng nghiệp, vì vậy tôi thực sự hy vọng sẽ hướng dẫn Michael tránh xa niềm tin có vấn đề vào trí thông minh phi nhân loại.

Hãy nhớ rằng khoảng một phần tư dân số sợ máy tính, đặc biệt khi thiết kế gợi ý rằng máy tính cũng giống như con người (Liang và Lee, 2017; Sprinkle, 2017; Strait và cộng sự, 2017). Những người khác cũng gợi ý rằng “các hệ thống nhân cách hóa có thể dẫn đến việc phụ thuộc quá mức hoặc sử dụng không an toàn” (Weidinger et al., 2022).

Bằng cách nâng máy móc lên ngang với khả năng của con người, chúng ta làm giảm đi sự đặc biệt của con người. Tôi mong muốn duy trì sự khác biệt và làm rõ trách nhiệm. Vì vậy, tôi không nghĩ rằng máy móc nên sử dụng đại từ nhân xưng ngôi thứ nhất, mà nên mô tả người chịu trách nhiệm về hệ thống hoặc chỉ đơn giản là phản hồi theo cách giống như máy móc. Đôi khi cần một chút trí tưởng tượng để có được cách diễn đạt đúng, nhưng tốt nhất là khi nó ngắn gọn hơn.

Trong những ngày đầu của máy ngân hàng, trò chơi xã hội đã được thử nhiều lần với “Tillie the Teller,” “Harvey Wallbanker,” v.v. mang tính tán gẫu, ví dụ: “Chào buổi sáng. Tôi có thể làm gì cho bạn hôm nay?” nhưng những điều này không thành công, nhường chỗ cho "Bạn muốn gửi tiền hay rút tiền?" hay nói gọn hơn là chỉ đưa ra các nút chạm để khách hàng muốn. Người dùng chuyển sang các thiết kế cho phép họ hoàn thành nhiệm vụ nhanh nhất có thể, đồng thời mang lại cho họ cảm giác rằng họ đang vận hành một cỗ máy.

Vấn đề là KHÔNG nếu con người có thể liên hệ với một cỗ máy xã hội lừa đảo - tất nhiên là họ có thể. Vấn đề là “Chúng ta có nhận ra rằng con người và máy móc là những phạm trù khác nhau không?” hoặc “Liệu chúng ta có tôn trọng phẩm giá con người bằng cách thiết kế những cỗ máy hiệu quả giúp nâng cao hiệu quả và trách nhiệm của con người không?” Hơn 2 triệu ứng dụng trong Apple Store hầu hết dựa trên thao tác trực tiếp. Các ứng dụng chính như mua sắm trên Amazon, tìm kiếm của Google, điều hướng, v.v. tránh các thiết kế giống con người vì họ hiểu rằng chúng không tối ưu và không được ưa chuộng. Michael có thể chỉ ra 3 ứng dụng được sử dụng rộng rãi có giao diện giống con người không?

Michael Muller: Một phần quan điểm của tôi dựa trên mối quan hệ giữa con người và động vật. Có một số loại trí thông minh ở loài chó, và đặc biệt là ở loài chó được huấn luyện kỹ lưỡng như chó dẫn đường hoặc chó chăn cừu (Phillips và cộng sự, 2016) hoặc một chú ngựa pony thòng lọng (Fjin, 2011). Có một loại trí thông minh khác, lạnh lùng hơn nhiều ở loài chim ưng (Soma, 2013). Và một loại trí thông minh khác ở bò (Phillips et al., 2016). Chúng tôi có mối quan hệ với những con vật đó.

Tôi nghĩ chó chăn cừu và chó săn là những trường hợp thú vị. Chúng tôi (con người, không phải Michael) gửi chúng ra ngoài để làm mọi việc (Kaminski và Nitzschner, 2013). Chúng tôi phối hợp hành động của mình với họ — đôi khi ở khoảng cách xa. Họ phối hợp hành động của họ với chúng tôi.

Sau đó, có amip và paramecia, có thể cảm nhận và phản ứng, nhưng không có nhiều thứ mà chúng ta nghĩ là một bộ não, và thậm chí còn kém trí tuệ hơn.

Nhưng chó là một trường hợp trung gian. Họ có một sự hiện diện xã hội. Họ có một cái gì đó giống như một tâm trí. Họ có những mục tiêu riêng của họ, và đôi khi mục tiêu của họ và mục tiêu của chúng ta có thể phù hợp với nhau, đôi khi thì không. Đôi khi chúng ta có thể thay đổi suy nghĩ của họ. Đôi khi chúng có thể thay đổi suy nghĩ của chúng ta. Tôi nghĩ điều đó khiến họ có vẻ giống như những trí thông minh không phải con người.

Nói như vậy, tôi không thấy LLM (hay nói đúng hơn là UI đối với LLM) là có mục tiêu, ý định và chắc chắn là không có đầu óc. Các giao diện người dùng mà chúng tôi đã xây dựng có sự hiện diện xã hội. Chúng tôi có thể thiết kế chúng sao cho chúng dường như có những cá tính riêng biệt — mặc dù chúng tôi biết rằng máy nướng bánh mì thông minh không có cá tính riêng. Vẹt có một số điểm giống như tính cách, nhưng không phải là vẹt ngẫu nhiên (Bender et al., 2021). Nhưng những con vẹt ngẫu nhiên có thể có một loại hiện diện xã hội. Điều đó khiến chúng trở nên xa lạ và mới mẻ, bởi vì chúng pha trộn các thuộc tính của lò nướng bánh và của các sinh vật xã hội. Mọi người đã viết về “thung lũng kỳ lạ”. Khi tôi nói "kỳ lạ", tôi có thể nói "kỳ lạ." Tôi nghĩ rằng chúng hữu ích, hiệu quả một cách kỳ lạ. Chúng giúp chúng ta suy nghĩ những suy nghĩ mới, mang tính thử nghiệm.

Tôi vẫn nghĩ về trí thông minh như một sự liên tục, không phải là một nhị phân. Chúng ta có thể neo sự liên tục đó với amip ở một đầu và con người ở đầu kia. Đó là khu vực âm u ở giữa mà tôi quan tâm. Đó là bởi vì tôi coi nó như một vùng lai hay “không gian thứ ba”. Một không gian xa lạ. Trong bài báo Aarhus năm 1995 của tôi (Muller, 1995), và một lần nữa trong chương Sổ tay với Allison Druin (Muller và Druin, 2012), chúng tôi đã khẳng định rằng những không gian giao thoa giữa các nền văn hóa này là nơi màu mỡ cho những hiểu biết mới và kiến ​​thức khác nhau, chính xác là vì chúng xa lạ. Tôi nghĩ rằng mối quan hệ giữa con người và AI cũng có thể là không gian lai tạo của sự mới lạ.

Nếu bạn nói rằng cả động vật và thuật toán đều không có trí thông minh cụ thể của con người, thì tôi sẽ đồng ý với bạn. Cho đến nay, con người chúng ta vẫn thuộc loại đặc biệt - mặc dù các bài báo về đạo đức học gần đây cho thấy rằng chúng ta không hoàn toàn đặc biệt như chúng ta từng nghĩ.

Đối với tôi, đó không phải là vấn đề ẩn dụ. Đó là vấn đề về các khả năng, và về những mối quan hệ mờ ám nhưng thú vị.

Tôi chấp nhận rằng bạn bác bỏ khái niệm về trí thông minh phi nhân loại. Tôi nghĩ đó là nơi mà “cuộc tranh luận” của chúng ta có thể tập trung vào. Chúng ta không cần phải đồng ý. Tuy nhiên, chúng ta cần phải đồng ý về một tiêu đề. Nếu bạn không muốn một tiêu đề về trí thông minh không phải con người, thì có lẽ chúng ta có thể thử một tiêu đề ít cụ thể hơn, chẳng hạn như “Mối quan hệ của con người và AI”?

Ben Shneiderman : Cảm ơn bạn đã trả lời và thảo luận thêm về động vật như một trường hợp trung gian. Đối với tôi, vấn đề phân biệt là trách nhiệm, vì vậy điều quan trọng cần nhớ là chủ sở hữu vật nuôi phải chịu trách nhiệm về mặt pháp lý và đạo đức đối với những gì vật nuôi của họ làm.

Cuộc thảo luận sẽ trở nên phức tạp hơn nếu chúng ta xem xét những người không hoàn toàn chịu trách nhiệm về hành động của mình, chẳng hạn như những người đã uống rượu hoặc ma túy làm ảnh hưởng đến trí thông minh, trí nhớ, khả năng nhận thức, nhận thức và vận động của họ.

Vì vậy, bạn có thể nói trí thông minh là một sự liên tục, nhưng trách nhiệm thì nhị phân hơn và là một yếu tố quan trọng trong thiết kế. Tôi nghĩ rằng cuộc thảo luận không thể chỉ giới hạn ở trí thông minh mà phải bao gồm trí nhớ, khả năng nhận thức, nhận thức và vận động.

Tôi quan tâm đến việc nhấn mạnh thiết kế làm rõ rằng các công cụ AI được thiết kế bởi con người và các tổ chức, chịu trách nhiệm pháp lý về những gì họ làm và những gì các công cụ làm, mặc dù các công cụ có thể bị lạm dụng, v.v.

Cuộc tranh luận của chúng tôi rất thú vị, nhưng ngay cả việc lựa chọn tiêu đề cũng chia rẽ chúng tôi. Bạn đề xuất "Mối quan hệ của con người và AI"? Tôi cho rằng thật hợp lý khi thảo luận về “Mối quan hệ của con người và ô tô/thuyền/máy ủi/bóng đèn”, nhưng từ “mối quan hệ” gợi ý điều gì đó giống như mối quan hệ ngang hàng, cấp quá nhiều cho AI. Tôi sẽ hạnh phúc hơn với “Thiết kế các hệ thống AI trong tương lai để phục vụ nhu cầu của con người.” Đối với tôi, nhu cầu của con người bao gồm bảo tồn môi trường và đa dạng sinh học cũng như các Mục tiêu Phát triển Bền vững của Liên hợp quốc .

Phần IV — Về việc sử dụng “tôi”

Michael Muller: Tôi đã quên phản hồi về các chatbot thương mại phản hồi ở ngôi thứ nhất số ít. Tất nhiên, có rất nhiều ví dụ từ các LLM hiện tại. Cho dù các dịch vụ này có khả thi về mặt kinh tế ngày nay hay không, các công ty tạo ra chúng đang đặt cược vào khả năng cạnh tranh và thương mại của chúng : Bard, Bing, HuggingFace Open Assistant, v.v.

Tuy nhiên, đó là những giao diện người dùng mà bạn đã phản đối. Dưới đây là những ví dụ từ một vài năm trước đó. Suhel và cộng sự. (2020) mô tả các chatbot ngân hàng sử dụng ngôi thứ nhất số ít. Ngân hàng của tôi có một tính năng tương tự. Giải pháp IGT cung cấp một chatbot để đặt vé máy bay và Câu hỏi thường gặp. SABA Hospitality cung cấp dịch vụ đặt phòng khách sạn và dịch vụ khách hàng tương tự. Đây là những dịch vụ thương mại sử dụng chatbot góc nhìn thứ nhất.

Các nhà nghiên cứu đã sử dụng loại mô hình này (tức là AI tự gọi mình là “tôi” hoặc “tôi”) trong công việc liên quan đến chương trình nghiên cứu của Nass và Reeve' “Máy tính là tác nhân xã hội” (ví dụ: Reeves và Nass, 1996). Tôi có thể tìm thấy một ví dụ ngay từ năm 1998 (Elliott và Brzezinski, 1998), và tôi nghi ngờ rằng một số bài báo của thập kỷ trước cũng có kiểu đối thoại này. Tôi nghĩ bạn sẽ phản đối mạnh mẽ hơn mô tả của Strommen về đồ chơi trẻ em tự coi chúng là “tôi” (Bergman (ed.), 2000).

Tôi đồng ý rằng có một lịch sử về những người từ chối chatbot. Theo kinh nghiệm của chúng tôi, vấn đề chấp nhận là do yêu cầu của người dùng không phù hợp với nhóm ý định của chatbot (nghĩa là ánh xạ yêu cầu tới phản hồi). Chúng tôi đã thấy rằng các LLM hiện tại dường như cung cấp các phản hồi phù hợp hơn, có lẽ chính xác là do chúng không sử dụng cách ánh xạ từ lời nói đến ý định của thế hệ trước. Tôi không chắc rằng mọi người từ chối chatbot sử dụng đại từ. Tôi nghĩ họ từ chối những chatbot cung cấp dịch vụ kém. Chúng ta có thể cần thực hiện các phân tích có hệ thống hơn về các yếu tố dẫn đến sự chấp nhận và các yếu tố dẫn đến thất bại.

Ben Shneiderman: Cảm ơn vì đã quay lại vấn đề về đại từ. Bạn đúng là có những chatbot thương mại đã thành công với việc sử dụng “tôi”. Tuy nhiên, như bạn đã chỉ ra, nhiều chatbot dịch vụ khách hàng bằng văn bản đã thất bại vì chúng không hữu ích lắm.

Một ví dụ nữa có lợi cho bạn là sự thành công của Alexa và Siri, là giao diện người dùng dựa trên giọng nói (VUI) sử dụng đại từ “tôi”. Với các bản trình bày nhỏ gọn và thiết kế thông minh của VUI đã khiến “tôi” có thể chấp nhận được, nhưng phép tính thay đổi với giao diện người dùng trực quan.

Tuy nhiên, các hệ thống phản hồi bằng giọng nói dựa trên điện thoại hướng dẫn người dùng thông qua cây menu dường như đã chuyển từ việc sử dụng sớm đại từ “tôi” sang “bạn” trong các ví dụ mà tôi đã xem xét, ví dụ: “Bạn có thể nhập hoặc nói 1 để nghe giờ mở cửa …” (trái ngược với câu nói khó xử “Nếu bạn gõ hoặc nói 1, tôi sẽ cho bạn giờ mở cửa…”).

Thêm một nhận xét nữa là bạn viết “có lịch sử mọi người từ chối chatbot”. Tôi nghĩ cuộc thảo luận của chúng ta sẽ cụ thể hơn nếu chúng ta phân biệt các cộng đồng người dùng khác nhau. Hầu hết người dùng không để ý xem giao diện là “tôi” hay “bạn”, nhưng một số người dùng cực kỳ không thích sự lừa dối của “tôi” trong khi một số người dùng cực kỳ thích cảm giác trao quyền mà họ có được với thiết kế “bạn”. Tôi ước tôi biết tỷ lệ phần trăm trong mỗi danh mục, đặc biệt là được phân tách theo giới tính, tuổi tác, trải nghiệm máy tính, v.v. Một câu hỏi thú vị khác là liệu sở thích về đại từ có thay đổi theo năm tháng hay không.

Điểm cuối cùng của tôi là về lý thuyết CASA của Reeves và Nass (1996). Tôi rất thích tranh luận với Cliff Nass về những vấn đề này, mặc dù tôi đã thắng trong vụ cá cược năm 1995 về tương lai của Microsoft BOB, mà anh ấy đã tư vấn, nhưng tôi đã dự kiến ​​sẽ thất bại — tôi chỉ không ngờ rằng nó sẽ thất bại hoàn toàn đến mức đó. không phải là phiên bản 2, nó chỉ đơn giản là bị xóa khỏi thị trường trong vòng một năm. Mặc dù các nghiên cứu của Reeves & Nass chứng minh rằng người dùng sẽ phản ứng với máy tính về mặt xã hội, nhưng họ không xem xét giả thuyết thay thế, đó là người dùng sẽ thích các giao diện thao tác trực tiếp vẫn chiếm ưu thế trong Cửa hàng Apple và Android cũng như các thiết kế máy tính xách tay dựa trên web.

Tóm lại, trong khi có những tình huống mà máy tính có thể trở nên thành công về mặt thương mại bằng cách giả vờ là một người, thì thiết kế chủ đạo vẫn là màn hình cảm ứng của thiết bị di động và các lần nhấp chuột trên web giúp người dùng kiểm soát và tránh thiết kế hình người (tôi muốn nói cạm bẫy!). Tôi nghĩ rằng có một sự thay thế rõ ràng cho thuyết hình người. Vấn đề lớn hơn đại từ.

Trong khi chúng tôi kết thúc cuộc thảo luận này, các cuộc thảo luận trực tuyến đã xuất hiện, chẳng hạn như bài đăng trên blog này của Paola Bonomo (2023).

Tóm tắt cuộc tranh luận

bởi Chenhao Tan và Justin D. Weisz

Với tư cách là biên tập viên của ấn phẩm Phương tiện AI lấy con người làm trung tâm , chúng tôi rất biết ơn vì Michael và Ben đã chia sẻ những hiểu biết quý giá của họ về vấn đề thuyết hình người. Đặc biệt, chúng tôi thấy cuộc thảo luận của họ kích thích tư duy và làm sáng tỏ một số vấn đề cốt lõi. Dưới đây là ba điểm chính rút ra từ cuộc tranh luận này:

  • Cả Michael và Ben đều đồng ý rằng việc lựa chọn sử dụng “tôi” (tức là thuyết nhân hóa) có thể có tác động đáng kể đến người dùng.
  • Ben có lập trường rõ ràng về sự khác biệt nhị phân giữa trí thông minh của con người và trí thông minh không phải con người, đồng thời nhấn mạnh tầm quan trọng của trách nhiệm: các nhà thiết kế & nhà phát triển phải chịu trách nhiệm về các công cụ được tích hợp trí tuệ nhân tạo.
  • Ngược lại, Michael chấp nhận một thái độ linh hoạt hơn đối với trí thông minh như một sự liên tục bằng cách đưa ra nhiều phép loại suy với mối quan hệ giữa con người và động vật. Ông lập luận rằng có một “vùng âm u ở giữa” trí thông minh của con người và trí thông minh do amip thể hiện, điều này rất thú vị và chưa được khám phá như một không gian thiết kế.

Chia sẻ quan điểm của bạn

Bạn đứng ở đâu về vấn đề nhân hóa trong các hệ thống AI? Lập luận của ai thuyết phục bạn hơn? Bạn có một quan điểm khác nhau? Chúng tôi rất thích nghe quan điểm của bạn! Vui lòng liên hệ với Chenhao Tan nếu bạn muốn bình luận đầy đủ thông tin của mình được đưa vào cuộc thảo luận này.

Dưới đây là những bình luận được chia sẻ bởi những người khác trong cộng đồng.

  • Pattie Maes (MIT Media Lab, Hoa Kỳ) — ngày 10 tháng 4 năm 2023
  • Susan Brennan (Đại học Stony Brook, Hoa Kỳ) — ngày 10 tháng 4 năm 2023
  • Ron Wakkary (Đại học Simon Frasier, Canada) — ngày 18 tháng 4 năm 2023
  • Mary Lou Maher (Đại học Bắc Carolina, Charlotte, Hoa Kỳ) — ngày 26 tháng 4 năm 2023
  • Bender, EM, Gebru, T., McMillan-Major, A., & Mitchell, S. (2021, tháng 3). Về mối nguy hiểm của những con vẹt ngẫu nhiên: Các mô hình ngôn ngữ có thể quá lớn không?. Trong Kỷ yếu hội nghị ACM 2021 về tính công bằng, trách nhiệm giải trình và minh bạch (trang 610–623).
  • Bergman, E. (Biên tập). (2000). Thiết bị thông tin và hơn thế nữa: thiết kế tương tác cho các sản phẩm tiêu dùng . Morgan Kaufmann.
  • Bonomo, P., (25 tháng 3 năm 2023). AI có đạo đức không bao giờ nói “tôi”.https://livepaola.substack.com/p/an-ethical-ai-never-says-i
  • Capek, K. (2004). RUR (Người máy vạn năng của Rossum) . Chim cánh cụt.
  • Capek, K., Weatherall, M., & Weatherall, R. (1996). Cuộc chiến với sa giông . Nhà xuất bản Đại học Tây Bắc.
  • Don, A., Brennan, S., Laurel, B., & Shneiderman, B. (1992, tháng 6). Thuyết nhân hình: từ ELIZA đến Kẻ hủy diệt 2. Trong Kỷ yếu Hội nghị SIGCHI về Nhân tố Con người trong Hệ thống Máy tính (trang 67–70).
  • Elliott, C., & Brzezinski, J. (1998). Các tác nhân tự trị như các nhân vật tổng hợp. Tạp chí AI , 19 (2), 13–13.
  • Fijn, N. (2011). Sống theo bầy đàn: sự chung sống giữa người và động vật ở Mông Cổ . Nhà xuất bản Đại học Cambridge.
  • Haraway, DJ (2003). Bản tuyên ngôn về loài đồng hành: Chó, người và sự khác biệt quan trọng (Tập 1, trang 3–17). Chicago: Báo chí mô hình gai góc..
  • Kaminski, J., & Nitzschner, M. (2013). Chó có nhận được điểm không? Đánh giá về khả năng giao tiếp giữa chó và người. Học tập và Động lực , 44 (4), 294–302.
  • Lakoff, G. (1986). Một con số của suy nghĩ. Ẩn dụ và biểu tượng , 1 (3), 215–225.
  • Lakoff, G., & Johnson, M. (2008). Ẩn dụ chúng ta sống bằng. Nhà xuất bản Đại học Chicago.
  • Leckie, A. (2013). Bộ ba Imperial Radch Boxed . quỹ đạo.
  • Liang, Y. và Lee, SA (2017). Nỗi sợ hãi về Robot tự trị và Trí tuệ nhân tạo: Bằng chứng từ Dữ liệu Đại diện Quốc gia với Lấy mẫu Xác suất. Tạp chí Quốc tế về Người máy Xã hội, 9(3): 379–84.
  • Muller, MJ (1995). Khám phá dân tộc học cho HCI làm việc với người dùng và các bên liên quan khác. Trong Kỷ yếu về Máy tính trong Bối cảnh: Hợp lực trong Thiết kế , trang 10–19 (Aarhus Đan Mạch, 1995).
  • Muller, M. (2004). Nhiều mô hình trong tính toán tình cảm. Tương tác với Máy tính 16.4 (2004): 759–768.
  • Muller, MJ, & Druin, A. (2012). Thiết kế có sự tham gia: Không gian thứ ba trong tương tác giữa người và máy tính. Trong J. Jacko (ed), The Human–Computer Interaction Handbook (trang 1125–1153). Nhà xuất bản CRC.
  • Mumford, L. (1936, 2010). Kỹ thuật và văn minh . Nhà xuất bản Đại học Chicago.
  • Natale. S. (2021). Truyền thông dối trá: Trí tuệ nhân tạo và đời sống xã hội sau phép thử Turing . Nhà xuất bản Đại học Oxford, Mỹ.
  • Phillips, E., Schaefer, KE, Billings, DR, Jentsch, F., & Hancock, PA (2016). Các nhóm người-động vật như một sự tương tự cho các nhóm người-rô-bốt trong tương lai: Ảnh hưởng đến thiết kế và nuôi dưỡng lòng tin. Tạp chí Tương tác Người-Robot , 5 (1), 100–125.
  • Reeves, B., & Nass, C. (1996). Phương trình truyền thông: Cách mọi người đối xử với máy tính, truyền hình và phương tiện truyền thông mới như người thật . Cambridge, Vương quốc Anh.
  • Ross, SI, Martinez, F., Houde, S., Muller, M., & Weisz, JD (2023, tháng 3). Trợ lý của lập trình viên: Tương tác đàm thoại với mô hình ngôn ngữ lớn để phát triển phần mềm. Trong Kỷ yếu của Hội nghị Quốc tế lần thứ 28 về Giao diện Người dùng Thông minh (trang 491–514).
  • Shneiderman, B., Plaisant, C., Cohen, MS, Jacobs, S., Elmqvist, N., & Diakopoulos, N. (2016). Thiết kế giao diện người dùng: các chiến lược để tương tác hiệu quả giữa người và máy tính . Lề.
  • Soma, T. (2013, tháng 4). Khảo cổ dân tộc học về chim ưng cổ đại ở Đông Á. Trong Hội nghị Châu Á về Nghiên cứu Văn hóa 2013: Kỷ yếu hội thảo chính thức (trang 81–95).
  • Suhel, SF, Shukla, VK, Vyas, S., & Mishra, VP (2020, tháng 6). Trao đổi về tự động hóa trong ngân hàng thông qua chatbot sử dụng ngôn ngữ trí tuệ máy nhân tạo. Vào năm 2020, Hội nghị Quốc tế lần thứ 8 về Độ tin cậy, Công nghệ Infocom và Tối ưu hóa (Xu hướng và Định hướng Tương lai)(ICRITO) (trang 611–618). IEEE.
  • Rắc, T. (2017). Robophobia: Kết nối Thung lũng Kỳ lạ . Hội Kỹ sư cơ khí Mỹ.
  • Strait, MK, Aguillon, C., Contreras, V. và Garcia, N. (2017). Nhận thức của công chúng về rô-bốt giống người: Bình luận xã hội trực tuyến phản ánh một thung lũng kỳ lạ dựa trên ngoại hình, nỗi sợ hãi chung về “sự tiếp quản công nghệ” và xu hướng tình dục hóa rô-bốt có giới tính nữ không nao núng. Proc. Hội nghị chuyên đề quốc tế IEEE lần thứ 26 về Robot và giao tiếp tương tác với con người (RO-MAN). IEEE, 1418–23.
  • Weidinger, L., Uesato, J., Rauh, M., Griffin, C., Huang, PS, Mellor, J., … & Gabriel, I. (2022, tháng 6). Phân loại rủi ro do các mô hình ngôn ngữ gây ra. Vào năm 2022, Hội nghị ACM về Công bằng, Trách nhiệm giải trình và Minh bạch (trang 214–229).