AI 의인화에 대하여
Ben Shneiderman (University of Maryland, 미국) 및 Michael Muller (IBM Research, 미국)
소개
의인화는 사람이 동물, 사물 또는 자연 현상에 사람과 같은 특성이나 감정을 부여할 때와 같이 사람이 아닌 개체에 사람과 같은 특성이나 행동을 투영하는 행위입니다. AI 기반 시스템에 대한 의인화 디자인의 사용에 대한 오랜 논쟁이 있어 왔으며, (적어도) ACM 컴퓨터-인간 상호 작용 컨퍼런스의 초기 패널인 "의인화: ELIZA에서 터미네이터 2까지"(Don 외, 1992).
의인화를 둘러싼 설계 문제는 다음과 같습니다.
- 인간 에이전트와 같은 캐릭터가 화면에 표시되어야 합니다.
- 컴퓨터는 자신을 텍스트 또는 음성 사용자 인터페이스를 통해 인간과 같은 사회적 행위자로 표현해야 합니다.
- 컴퓨터 프롬프트나 응답은 1인칭 대명사를 사용해야 합니다(예: "도와드리겠습니다").
- 사용자는 클릭, 끌기, 확대/축소 또는 터치가 가능한 대안적이고 직접적인 조작 디자인을 선호합니다 .
Michael과 Ben은 2023년 3월과 4월 동안 메모를 계속 주고받았고 Eds. Chenhao Tan, Justin Weisz, Werner Geyer는 그들의 주장을 공개할 것을 제안했습니다. 이 기사는 전자 메일 교환의 약간 편집된 버전을 나타내며 네 부분으로 나뉩니다.
- 파트 I — 의인화에 관하여
- 파트 II — 의인화된 컴퓨팅 시스템
- 3부 — 지능형, 비지능적 또는 연속체?
- 파트 IV — "I"의 사용에 관하여
교환하는 동안 논평과 관점을 추가하기 위해 추가 사람들이 대화에 참여했습니다. 우리는 다가오는 기사에서 그들의 관점을 게시할 것입니다( 목록은 아래 참조 ). 믹스에 자신의 목소리를 추가하려면 Chenhao Tan 에게 연락하십시오 .
논쟁
파트 I — 의인화에 관하여
Ben Shneiderman : 특히 우려되는 점은 GPT-4 출력이 1인칭 대명사를 사용하여 사람임을 암시하는 방식입니다. 예를 들면 다음과 같습니다. "GPT-4는 OpenAI에 의해 설계되어 이와 같은 요청에 응답하지 않습니다"라는 간단한 대안은 책임을 명확히 하고 1인칭 대명사의 기만적인 사용을 피할 수 있습니다. 내 세계에서 기계는 "나"가 아니며 인간인 척해서는 안 됩니다.
Michael Muller : 첫째, 우리 인간은 아주 오랫동안 인공물과 자연적 존재를 사람과 같은 존재로 다루어 왔습니다. Phelerum의 Demetrius는 기원전 280년 이전에 prosopopoeia(의인화)에 대해 썼습니다. Prosopopoeia에 대한 Wikipedia 항목은 " 지혜가 자신을 찬양하고 / 자신의 백성 중에서 자신의 영광을 선포합니다."라는 Sirach 책의 예를 제공합니다. 역사적 골렘("골룸"이라고 불리는 톨킨의 골렘이 아님)에서 Mary Wollstonecraft Shelley에 이르기까지 그리고 피그말리온과 갈라테이아의 신화에 이르기까지 일종의 자각 또는 행위 주체를 취하는 창조된 존재에 대한 많은 설명이 있습니다.
그래서 저는 우리가 만든 것을 인간과 같은 특성을 가지고 있다고 언급한 선례가 많이 있다고 생각합니다. Reeves와 Nass(1996)는 특히 사회적 행위자로서의 컴퓨터에 관한 연구 프로그램으로 이 개념을 추구했습니다. 의인화의 더 긴 역사를 검토한 Interacting with Computers(Muller, 2004)에서 그들의 입장에 대한 나의 비판도 참조하십시오.
둘째, 우리는 알고리즘이 결정되지 않은 대화 파트너가 된다는 것이 무엇을 의미하는지 지금 막 탐구하고 있습니다. LLM은 확률적 앵무새이므로 "마음"이 없습니다. 그럼에도 불구하고 그들은 설득력있는 사회적 존재감을 가지고 있습니다. 우리는 아직 그 사회적 존재감으로 무엇을 할 수 있는지 모릅니다. (나는 "우리가 그것을 사용할 수 있는 것"이라는 실용주의적 의미에서 "한다"라고 말합니다.) 현재의 모든 짜증나는(때로는 위험한) AI 과대광고 외에도, 여기에 우리가 만들고 있는 엔티티의 종류와 그에 대한 연구 질문이 있습니다. 우리가 그들과 어떻게 관계를 맺을 것인가. IMHO, 우리는 아직 모릅니다.
인간/인간이 아닌 이분법을 하나의 차원 또는 여러 차원으로 분해해야 할 것 같습니다. 기존의 유로서구식 사고 방식에서 우리는 이미 동물과의 관계에서 이것을 하고 있습니다. 우리 대부분에게 바위는 그저 바위일 뿐입니다(그러나 일부 토착 및 원주민 철학은 그 진술에 이의를 제기할 것입니다). 유사하게, 예를 들어 도롱뇽과 같은 일부 동물은 Capek의 작업에서만 흥미로운 개성을 가지고 있지만(Capek et al., 1996), 그들과의 상호 작용에서는 그렇지 않습니다(그리고 저는 Capek의 잘못된 관계에 대한 동료 작업이 로봇(Capek, 2004)). Elizabeth Phillips와 동료들(2016)은 개가 사회적 존재의 주요 예인 일부 동물과 우리가 가진 더 깊은 관계를 탐구했습니다. Haraway(2003)의 동반자 종의 개념도 참조하십시오. 흥미롭게도 Fijn(2011)은 몽골 올가미 조랑말과의 인간 관계에 대해 연구했습니다. 그래서 동물과 관련된 단순한 인간/비인간 구분보다는 고려해야 할 단계가 있습니다.
Phillipset al. (2016)은 인간과 AI의 관계에 대해 생각하기 위해 인간과 동물의 관계를 사용했습니다. 나는 동물과 마찬가지로 컴퓨터 사물에 적용할 수 있는 사회성 또는 사회적 존재의 정도가 있다고 생각합니다. 나는 우리가 아직 이러한 가능성을 배제할 만큼 충분히 알지 못한다고 생각합니다.
사기 및 조작에 대한 게시물의 주제에 대해 저에게 묻는다면 저는 사람들을 보호하는 데 바로 옆에 있으며 사람들을 속이기 위해 인간인 척하는 AI로부터 사람들을 보호하기 위한 엄격한 규정을 지지할 것입니다. 나에게 그것은 우리가 탐구하는 것이 정직하고 완전히- 공개하고 악의없이.
파트 II — 의인화된 컴퓨팅 시스템
Ben Shneiderman: 예, 저는 아리스토텔레스의 유물에 인격이 사용되었으며 앞으로도 계속 사용될 것이라는 점에 동의합니다. 나는이 좀비 아이디어를 죽일 수 있다고 생각하지 않습니다.
그러나 좀비 아이디어는 문제가 있는 영향을 미칠 수 있습니다. 일반 아티팩트 사용자가 보트, 자동차 또는 룸바에 대해 인간과 유사한 참조를 만드는 것은 하나의 문제이지만 디자이너가 해당 언어를 사용하여 제품이 좋지 않은 결과를 초래하는 경우 문제라고 생각합니다. 실패한 의인화 시스템의 오랜 역사는 Microsoft BOB 및 Clippie 이전으로 거슬러 올라가지만 수십억 달러의 실패를 계속해서 생산해 왔습니다. 가장 최근의 심각한 치명적인 설계 실수는 인간 운전자가 눈만 사용하기 때문에 Tesla는 비디오만 사용한다는 Elon Musk의 주장이었습니다. 레이더나 LIDAR의 사용을 금지함으로써 엔지니어의 반대에도 불구하고 그는 치명적인 결과를 낳는 차선의 시스템을 설계했습니다.
저에게는 은유가 중요합니다(Lakoff & Johnson, 2006). 따라서 디자이너는 컴퓨터가 사람과 마찬가지로 자연어로 의사소통해야 한다는 자신의 믿음이 정보가 풍부한 시각적 정보 표시와 같은 컴퓨터 기능을 사용하지 못하는 결과를 초래하는 방식에 주의를 기울여야 합니다. 정보.
의인화에서 사용자에게 더 큰 통제력을 제공하는 디자인으로의 전환에 대한 추가 지원은 사회학자인 Lewis Mumford가 제공합니다. 나는 그의 고전인 Technics and Civilization (1936) 에서 강한 영향을 받았고 ,"애니미즘의 장애물" 장에서 명확한 분석을 제공합니다. Mumford는 인간 또는 동물 모델을 기반으로 한 초기 디자인이 어떻게 신기술 개발에서 극복해야 하는 장애물인지 설명합니다. Mumford의 요점은 설계자가 대화형 인터페이스와 같은 "생체에서 영감을 받은" 개념을 고수할 경우 바퀴, 제트 엔진 또는 고해상도 컴퓨터 디스플레이와 같은 기술의 고유한 기능을 간과할 수 있다는 것입니다. 따라서 AI 시스템의 초기 디자인으로 의인화 표현이 제공되는 것은 이해할 수 있지만, 이 단계를 넘어서면 디자이너는 정교한 알고리즘, 거대한 데이터베이스, 초인적인 센서, 정보가 풍부한 디스플레이,
Michael Muller : 저에게 핵심 질문은 "인간이 비인간 지능과 어떻게 관련될 수 있습니까?"입니다. 의인화는 하나의 가능한 응답이지만 유일한 것은 아니며 유일한 관련 주제도 아닙니다.
당신과 나는 단어가 중요하고 은유가 중요하다는 데 동의합니다. 그래서 Phillips 등의 작업에 관심이 많았습니다. (2016). 그들은 인간과 동물의 관계를 살펴봄으로써 AI(복수)에 대한 유용한 은유(복수)를 찾고 있었습니다. 해러웨이의 작품(2003)의 많은 부분에서 다른 방식으로 그것은 사실이다.
이전에 썼듯이, 우리의 공통된 질문에 대한 나의 언어는 "인간이 비인간 지능과 어떻게 관련될 수 있습니까?"입니다. 나에게 그것은 핵심 문제에 더 가깝고 의인화는 이상한 비인간 존재에 대한 많은 가능한 탐구 중 하위 질문입니다. 의인화는 새로운 아이디어와 새로운 실체에 대한 하나의 은유적 접근 방식입니다. 내 생각에 은유는 생각의 형상이 되며, 이를 통해 우리는 그 이상함을 분명히 표현할 수 있습니다. (현대의 수사학 이론에 따라 나는 "형상과 말"뿐만 아니라 "생각의 형상"(예: Lakoff, 1986; Lakoff & Johnson, 2008)을 썼으며 다시 한 번 우리가 동의한다고 생각합니다.) 나는 우리가 은유를 탐구하기를 바랍니다. LLM이 "무엇"인지 뿐만 아니라 무엇이 될 수 있는지에 대해 생각하는 데 도움이 됩니다.
그런 식으로 말하면, 나는 (인간) 언어의 사용이 우리가 만들고 상호 작용하는 컴퓨팅 사물의 본질에 대한 개념적 공간을 여는 데 도움이 되기를 바랍니다. 나는 은유가 유용할 것이라고 생각하며 더 넓은 범주의 유추도 유용할 것입니다. 이러한 것들은 이제 매우 계층화되어 있습니다. 예를 들어, 모두가 LLM과 FM에 대해 이야기하는 동안 우리 중 일부(귀하와 저 포함)는 해당 LLM의 UI에 대해 열심히 생각하고 있습니다.
LLM 레이어는 아마도 "우리"일 것입니다. 결국 여기에는 수십만 명의 인간으로부터 동의 없이 수집된 재료가 포함되어 있습니다. 아니면 "캡처한 자료"라고 말했어야 했는지도 모릅니다. 또는 “훔친 목소리”.
UI 레이어는 "I"일 수 있습니다. 그것이 우리 인간에게 적합한 상호 작용 스타일이기 때문입니다. UI 레이어가 "그것"인 것을 선호하거나 Ann Leckie의 Imperial Radch 책(Leckie, 2013)에서 부상당한 보조원(사이보그 병사)처럼 3인칭으로 자신을 참조해야 한다고 생각합니다. “함대장님…
특징적으로 나는 실패를 막는 것보다 가능성을 여는 것에 더 관심이 있다. 예, Clippy와 BOB는 실패했지만 모든 의인화가 실패한다는 의미는 아닙니다. LLM에 대한 개인화된 UI를 사용한 우리의 실험은 상당히 성공적이었습니다. Programmer's Assistant 프로토타입(Ross et al. 2023)을 사용하는 사람은 그 존재론적 상태에 대해 혼동하지 않습니다. 스마트 토스터가 아닌 다른 것으로 착각하는 사람은 아무도 없지만, 알고 보니 변신에 도움이 되는 스마트 토스터였습니다. ("혁신적으로 스마트한"이 아니라 "변형적으로 도움이 되는" 것입니다.) 이제 Clippie와 BOB가 실패의 예로 있지만 Programmer's Assistant도 성공의 예로 있습니다(아마도 이전 Nass와 Reeves의 실험도). 의인화가 반드시 문제를 일으키는 것은 아닙니다.
IMHO, LLM에 대한 UI는 진정으로 새로운 디자인 공간입니다. 우리는 이 공간의 중요한 요소가 무엇인지 아직 모릅니다. 나는 그 요소들이 서로 상호 작용할 것이라고 생각합니다. 예를 들어, 의인화는 언제 유익하고 언제 유해합니까? (즉, 의인화와 상호 작용하는 다른 요인은 무엇입니까?) HCXAI 메시지(및 암시적 메시지)를 작성할 때 어떤 속성이 언제, 누구에게 중요합니까? 예를 들어 2개의 사용자 그룹과 3개의 메시지 장르가 있는 XAI에 대한 Upol Ehsan과 Samir Passi의 논문을 참조하십시오(Ehsan et al., 2021). 그리고 어떤 "사고 도구"(예: 생각의 그림)가 이 새로운 디자인 공간을 탐색하는 데 도움이 될 수 있습니까?
3부 — 지능형, 비지능적 또는 연속체?
Ben Shneiderman: Michael은 우리의 공통된 질문이 "어떻게 인간이 비인간 지능과 관련될 수 있습니까?"라고 제안합니다. 그러나 나는 기계가 지능적이라고 묘사되어야 한다는 데 동의하지 않습니다. 나는 생각하다, 알고 있다, 이해하다, 지능, 지식, 지혜 등과 같은 특정 단어를 사람에게만 사용하고 기계가 하는 일을 설명하기 위해 다른 단어를 찾습니다. 저는 Designing the User Interface (2016) 의 6개 에디션 모두에서 이 작업을 수행했으며 중요한 생산적 결정이라고 생각합니다.
Simone Natale의 책(2021)을 읽는 것이 도움이 될 것입니다. 그는 의인화 로봇과 휴머노이드 로봇이 설득력 있는 아이디어지만 역사적으로 실패한 제품으로 이어졌다고 말합니다. 그는 많은 응용 프로그램의 "평범한 속임수"와 "완전히 고의적인 속임수"에 대해 설명합니다. 두 가지 모두 "AI를 실행하는 회로, 소프트웨어 및 데이터와 같이 AI 기능의 핵심"입니다. 나탈레는 사람들이 속고자 하는 의지에 대해 놀라운 통찰력을 가지고 있습니다.
저는 Michael과 참여 설계에 대한 그의 오랜 헌신을 존경하고 그를 동료로 소중하게 생각합니다.
인구의 약 4분의 1이 컴퓨터를 두려워한다는 점을 기억하세요. 특히 디자인이 컴퓨터가 사람과 같다고 제안할 때 그렇습니다(Liang and Lee, 2017; Sprinkle, 2017; Strait et al., 2017). 다른 이들은 또한 "의인화 시스템이 지나친 의존이나 안전하지 않은 사용으로 이어질 수 있다"고 제안했습니다(Weidinger et al., 2022).
기계를 인간의 능력으로 승격함으로써 우리는 사람의 특수성을 감소시킵니다. 나는 구별을 유지하고 책임을 명확히하기를 간절히 원합니다. 그래서 저는 기계가 1인칭 대명사를 사용하는 것이 아니라 누가 시스템을 책임지고 있는지 설명하거나 단순히 기계처럼 반응해야 한다고 생각합니다. 때로는 올바른 문구를 얻기 위해 약간의 상상력이 필요하지만 더 간결할 때 가장 좋습니다.
뱅킹 머신 초기에 소셜 게임은 "Tillie the Teller", "Harvey Wallbanker" 등 수다스러운 "굿모닝"으로 반복적으로 시도되었습니다. 오늘 무엇을 도와드릴까요?” 그러나 이들은 실패하여 "입금 또는 출금을 원하십니까?" 또는 고객이 원하는 것을 터치할 수 있는 버튼을 제공하는 것보다 더 간결하게. 사용자는 가능한 한 빨리 작업을 수행할 수 있는 동시에 기계를 작동하는 듯한 느낌을 주는 디자인으로 전환했습니다.
문제는 인간이 기만적인 사회적 기계와 관련될 수 있는지 여부가 아닙니다. 물론 그럴 수 있습니다. 문제는 "인간과 기계가 다른 범주라는 것을 인식하는가?"입니다. 또는 "인간의 자기 효능감과 책임을 강화하는 효과적인 기계를 설계함으로써 인간의 존엄성을 존중할 것인가?" Apple Store의 2백만 개 이상의 앱은 대부분 직접 조작을 기반으로 합니다. Amazon 쇼핑, Google 검색, 내비게이션 등과 같은 주요 애플리케이션은 인간과 유사한 디자인이 차선책이고 인기가 없다는 것을 이해하게 되었기 때문에 인간과 유사한 디자인을 피합니다. Michael은 인간과 유사한 인터페이스가 있는 3가지 널리 사용되는 앱을 지적할 수 있습니까?
마이클 뮬러: 내 입장의 일부는 인간과 동물의 관계에 기반을 두고 있습니다. 개, 특히 안내견이나 목양견(Phillips et al., 2016) 또는 올가미 조랑말(Fjin, 2011)과 같이 고도로 훈련된 개에게는 일종의 지능이 있습니다. 매에게는 다른 훨씬 더 차가운 종류의 지능이 있습니다(Soma, 2013). 그리고 소의 또 다른 종류의 지능(Phillips et al., 2016). 우리는 그 동물들과 관계가 있습니다.
양치기 개와 사냥개는 흥미로운 사례를 제시한다고 생각합니다. 우리(Michael이 아닌 인간)는 일을 하도록 그들을 보냅니다(Kaminski and Nitzschner, 2013). 우리는 때때로 멀리 떨어져서 우리의 행동을 그들과 조정합니다. 그들은 우리와 함께 그들의 행동을 조정합니다.
그런 다음 아메바와 짚신벌레가 있습니다. 이들은 감지하고 반응할 수 있지만 우리가 뇌라고 생각하는 것이 많지 않고 정신도 적습니다.
그러나 개는 중간 사례입니다. 그들은 사회적 존재감을 가지고 있습니다. 그들은 마음과 같은 것을 가지고 있습니다. 그들은 그들 자신의 목표를 가지고 있으며 때로는 그들의 목표와 우리의 목표가 일치할 수도 있고 그렇지 않을 수도 있습니다. 때때로 우리는 그들의 마음을 바꿀 수 있습니다. 때때로 그들은 우리의 마음을 바꿀 수 있습니다. 나는 그것이 인간이 아닌 지능처럼 보이게 만든다고 생각합니다.
즉, 나는 LLM(또는 더 적절하게는 LLM에 대한 UI)이 목표, 의도, 그리고 확실히 정신이 없는 것으로 보지 않습니다. 우리가 구축한 UI에는 사회적 존재감이 있습니다. 스마트 토스터에는 개성이 없다는 것을 알고 있지만 뚜렷한 개성이 있는 것처럼 보이도록 디자인할 수 있습니다. 앵무새는 성격과 비슷하지만 확률적 앵무새는 아닙니다(Bender et al., 2021). 그러나 확률적 앵무새는 일종의 사회적 존재감을 가질 수 있습니다. 그것은 토스터와 사회적 존재의 속성을 혼합하기 때문에 그것들을 이상하고 새롭게 만듭니다. 사람들은 "불쾌한 계곡"에 대해 글을 썼습니다. 내가 "이상하다"고 말했을 때 "기묘하다"고 말할 수 있었다. 나는 그들이 유용하고 생산적으로 이상하다고 생각합니다. 그것들은 우리가 새롭고 실험적인 생각을 하도록 도와줍니다.
나는 여전히 지능을 이진법이 아니라 연속체로 생각합니다. 우리는 한쪽 끝에 아메바가 있고 다른 쪽 끝에 인간이 있는 연속체를 고정할 수 있습니다. 저에게 관심이 있는 것은 그 사이의 어두운 영역입니다. 혼종성의 영역, 즉 '제3의 공간'으로 생각하기 때문이다. 이상한 공간. 1995년 Aarhus 논문(Muller, 1995)과 Allison Druin의 핸드북 장(Muller and Druin, 2012)에서 우리는 문화가 혼합된 이러한 공간이 새로운 이해와 다양한 지식을 위한 비옥한 장소라고 주장했습니다. 그들은 이상하기 때문에. 인간과 AI의 관계도 참신함의 하이브리드 공간이 될 수 있다고 생각합니다.
동물도 알고리즘도 특별히 인간의 지능을 가지고 있지 않다고 말한다면 나는 바로 거기에 있습니다. 지금까지 우리 인간은 여전히 특별합니다. 최근의 동물 행동학 논문은 우리가 생각했던 것만 큼 특별하지 않다고 제안합니다.
저에게 그것은 은유의 문제가 아닙니다. 그것은 가능성의 문제이며, 어둡지만 흥미로운 그 사이의 문제입니다.
나는 당신이 인간이 아닌 지능이라는 개념을 거부한다는 것을 인정합니다. 나는 그것이 우리의 "토론"이 집중될 수 있는 곳이라고 생각합니다. 우리는 동의할 필요가 없습니다. 그러나 제목에 동의해야 합니다. 비인간 지능에 대한 제목을 원하지 않는다면 "인간과 AI의 관계"와 같이 덜 구체적인 제목을 시도해 볼 수 있습니까?
Ben Shneiderman : 추가 답변과 중간 사례로서의 동물에 대한 논의에 감사드립니다. 나에게 구별되는 문제는 책임이므로 애완동물 주인은 애완동물이 하는 일에 대해 법적으로나 도덕적으로 책임이 있다는 것을 기억하는 것이 중요합니다.
지능, 기억, 지각, 인지 및 운동 능력을 방해하는 술이나 약물을 복용한 사람과 같이 자신의 행동에 전적으로 책임이 없는 인간을 고려하면 논의가 더욱 복잡해집니다.
따라서 지능은 연속체라고 말할 수 있지만 책임은 더 이분법적이며 디자인에서 중요한 요소입니다. 토론이 지능에만 국한되지 않고 기억, 지각, 인지 및 운동 능력이 포함되어야 한다고 생각합니다.
저는 AI 도구가 인간과 조직에 의해 설계되었으며 도구가 오용될 수 있음에도 불구하고 그들이 하는 일과 도구가 하는 일에 법적 책임이 있음을 명확히 하는 디자인을 강조하는 데 관심이 있습니다.
우리의 토론은 흥미롭지만 제목 선택조차도 우리를 분열시킵니다. "인간과 AI의 관계"를 제안합니까? "인간과 자동차/보트/불도저/전구의 관계"를 논의하는 것이 타당하다고 생각하지만, "관계"라는 단어는 AI에게 너무 많은 것을 부여하는 동료 관계와 같은 것을 암시합니다. 나는 "인간의 요구에 부응하는 미래 AI 시스템 설계"가 더 행복할 것입니다. 나에게 인간의 필요에는 환경 및 생물 다양성 보존과 UN 지속 가능성 개발 목표가 포함됩니다 .
파트 IV — "I"의 사용에 관하여
Michael Muller: 1인칭 단수로 응답하는 상업용 챗봇에 대해 응답하는 것을 잊었습니다. 물론 현재 LLM에는 많은 예가 있습니다. 이러한 서비스가 오늘날 경제적으로 실행 가능한지 여부에 관계없이 이를 만드는 회사는 Bard, Bing, HuggingFace Open Assistant 등과 같이 상업적이고 경쟁력 있는 실행 가능성에 베팅하고 있습니다.
그러나 그것들은 당신이 반대해 온 UI들입니다. 다음은 몇 년 전의 예입니다. Suhelet al. (2020)은 1인칭 단수를 사용하는 은행 챗봇을 설명합니다. 내 은행에도 비슷한 기능이 있습니다. IGT 솔루션은 항공사 예약 및 FAQ를 위한 챗봇을 제공합니다. SABA Hospitality는 호텔 예약 및 고객 서비스에 대해 유사한 서비스를 제공합니다. 이들은 1인칭 단일 챗봇을 사용하는 상업적 제품입니다.
연구자들은 Nass와 Reeve의 연구 프로그램인 "Computers Are Social Actors"(예: Reeves and Nass, 1996)와 관련된 작업에서 이러한 종류의 패러다임(즉, 스스로를 "나" 또는 "나"라고 지칭하는 AI)을 사용했습니다. 나는 일찍이 1998년에 예를 찾을 수 있으며(Elliott and Brzezinski, 1998), 이전 10년의 논문 중 일부에서도 이런 종류의 대화가 있었던 것 같습니다. Strommen이 자신을 "나"라고 부르는 아동용 장난감에 대한 설명에 더 강력하게 반대할 것이라고 생각합니다(Bergman (ed.), 2000).
사람들이 챗봇을 거부한 역사가 있다는 데 동의합니다. 경험상 수락 문제는 사용자의 요청과 챗봇의 의도 세트(즉, 요청을 응답에 매핑)가 제대로 일치하지 않는 것입니다. 우리는 현재 LLM이 이전 세대의 발화-인텐트 매핑을 사용하지 않기 때문에 더 적절한 응답을 제공하는 것으로 보입니다. 사람들이 대명사를 사용하는 챗봇을 거부하는지 잘 모르겠습니다. 열악한 서비스를 제공하는 챗봇을 거부한다고 생각합니다. 수용으로 이어지는 요인과 실패로 이어지는 요인에 대해 보다 체계적으로 분석해야 할 수도 있습니다.
Ben Shneiderman: 대명사 문제로 다시 돌아와 주셔서 감사합니다. "나" 사용에 성공한 상업용 챗봇이 있다는 것은 맞습니다. 그러나 당신이 지적했듯이 많은 텍스트 고객 서비스 챗봇은 그다지 도움이 되지 않았기 때문에 실패했습니다.
당신에게 유리한 또 다른 예는 "I" 대명사를 사용하는 음성 기반 사용자 인터페이스(VUI)인 Alexa 및 Siri의 성공입니다. VUI의 콤팩트한 프리젠테이션과 영리한 디자인으로 "나"가 수용 가능해졌지만 미적분학은 시각적 사용자 인터페이스로 변경됩니다.
그러나 메뉴 트리를 통해 사용자를 안내하는 전화 기반 음성 응답 시스템은 내가 본 예에서 "I"의 초기 사용에서 "you" 대명사로 이동한 것으로 보입니다. 예를 들어 "영업 시간을 들으려면 1을 입력하거나 말할 수 있습니다. …”(“1을 입력하거나 말하면 영업 시간을 알려 드리겠습니다…”라는 어색한 것과 반대).
한 가지 추가 의견은 "챗봇을 거부하는 사람들의 역사가 있습니다"라고 작성하는 것입니다. 서로 다른 사용자 커뮤니티를 구분하면 논의가 더 구체적이 될 것이라고 생각합니다. 대부분의 사용자는 인터페이스가 "나"인지 "너"인지 알지 못하지만 일부 사용자는 "나"의 속임수를 매우 싫어하는 반면 일부 사용자는 "너" 디자인으로 얻는 권한 부여 감각을 매우 좋아합니다. 특히 성별, 연령, 컴퓨터 경험 등으로 구분된 각 범주의 백분율을 알고 싶습니다. 또 다른 흥미로운 질문은 대명사에 대한 선호도가 수년에 걸쳐 변하고 있는지 여부입니다.
마지막 요점은 Reeves와 Nass의 CASA 이론(1996)에 관한 것입니다. 나는 Cliff Nass가 컨설팅한 Microsoft BOB의 미래에 대한 1995년 내기에서 이겼지만 이러한 문제에 대해 Cliff Nass와 논쟁하는 것을 즐겼지만 실패할 것이라고 예상했습니다. 버전 2가 없었기 때문에 1년 이내에 시장에서 제거되었습니다. Reeves & Nass의 연구는 사용자가 컴퓨터에 사회적으로 반응할 것이라는 점을 보여주었지만 사용자가 Apple 및 Android 스토어와 웹 기반 노트북 디자인에서 지배적인 직접 조작 인터페이스를 선호할 것이라는 대안 가설을 고려하지 않았습니다.
결론적으로 컴퓨터가 사람을 가장하여 상업적인 성공을 거둘 수 있는 상황이 있기는 하지만 지배적인 디자인은 여전히 모바일 장치 터치스크린과 사용자가 제어할 수 있는 웹 기반 마우스 클릭이며 의인화된 디자인을 피합니다. 덫!). 의인화에 대한 명확한 대안이 있다고 생각합니다. 문제는 대명사보다 더 큽니다.
이 토론을 마무리하는 동안 Paola Bonomo(2023)의 블로그 게시물 과 같은 온라인 토론이 등장했습니다.
토론 요약
첸하오 탄과 저스틴 D. 와이즈
Human-Centered AI Medium 간행물 의 편집자로서 Michael과 Ben이 의인화 문제에 대한 귀중한 통찰력을 공유해 준 것에 감사드립니다. 특히, 우리는 그들의 토론이 생각을 자극하고 몇 가지 핵심 문제에 대해 명확히 하는 것을 발견했습니다. 다음은 이 논쟁에서 얻은 세 가지 주요 내용입니다.
- Michael과 Ben은 모두 "I"(즉, 의인화)를 사용하는 선택이 사용자에게 상당한 영향을 미칠 수 있다는 데 동의합니다.
- Ben은 인간과 비인간 지능 사이의 이분법적 구분에 대해 명확한 입장을 취하고 책임의 중요성을 강조합니다. 디자이너와 개발자는 AI 주입 도구에 대한 책임을 져야 합니다.
- 이에 비해 Michael은 인간과 동물의 관계에 대한 수많은 비유를 제시함으로써 지능에 대한 보다 유동적인 태도를 연속체로 받아들입니다. 그는 인간의 지능과 아메바가 보여주는 지능 사이에 "어두운 영역"이 있다고 주장하는데, 이는 흥미롭고 디자인 공간으로서 충분히 탐구되지 않았습니다.
관점 공유
AI 시스템의 의인화 문제에 대해 어떻게 생각하십니까? 누구의 주장이 당신을 더 확신시켰습니까? 당신은 다른 관점을 가지고 있습니까? 여러분의 의견을 듣고 싶습니다! 이 토론에 포함된 정보에 입각한 해설을 원하시면 Chenhao Tan 에게 연락하십시오 .
다음은 커뮤니티의 다른 사용자가 공유한 설명입니다.
- Pattie Maes (미국 MIT 미디어 랩) — 2023년 4월 10일
- Susan Brennan (미국 Stony Brook University) — 2023년 4월 10일
- Ron Wakkary (Simon Frasier University, 캐나다) — 2023년 4월 18일
- Mary Lou Maher (노스캐롤라이나 대학교, 미국 샬롯) — 2023년 4월 26일
- Bender, EM, Gebru, T., McMillan-Major, A., & Mitchell, S. (2021년 3월). 확률적 앵무새의 위험: 언어 모델이 너무 클 수 있습니까?. 공정성, 책임성 및 투명성에 관한 2021년 ACM 회의 절차 에서 (pp. 610–623).
- Bergman, E. (에드.). (2000). 정보 기기와 그 이상: 소비자 제품을 위한 인터랙션 디자인 . 모건 카우프만.
- Bonomo, P., (2023년 3월 25일). 윤리적 AI는 절대 '나'라고 말하지 않습니다.https://livepaola.substack.com/p/an-ethical-ai-never-says-i
- 카펙, K. (2004). RUR(Rossum의 범용 로봇) . 펭귄.
- Capek, K., Weatherall, M., & Weatherall, R. (1996). 뉴트와의 전쟁 . 노스웨스턴 대학교 출판부.
- Don, A., Brennan, S., Laurel, B., & Shneiderman, B. (1992년 6월). 의인화: ELIZA에서 터미네이터 2로. 컴퓨팅 시스템의 인적 요소에 관한 SIGCHI 회의 절차 에서 (pp. 67–70).
- Elliott, C., & Brzezinski, J. (1998). 합성 캐릭터로서의 자율 에이전트. AI 잡지 , 19 (2), 13–13.
- Fijn, N. (2011). 무리와 함께 살기: 몽골의 인간과 동물의 공존 . 케임브리지 대학 출판부.
- 해러웨이, DJ (2003). 동반자 종 선언문: 개, 사람, 중요한 타자성 (Vol. 1, pp. 3–17). 시카고: Prickly Paradigm Press..
- Kaminski, J., & Nitzschner, M. (2013). 개는 요점을 이해합니까? 개와 인간의 의사소통 능력에 대한 검토. 학습 및 동기 부여 , 44 (4), 294–302.
- 레이코프, G. (1986). 생각의 그림. 은유와 상징 , 1 (3), 215–225.
- 레이코프, G., & 존슨, M. (2008). 우리가 사는 은유. 시카고 대학교 출판부.
- 레키, A. (2013). Imperial Radch Boxed Trilogy . 궤도.
- 량영, 이사(2017). 자율 로봇과 인공 지능에 대한 두려움: 확률 샘플링을 통한 국가 대표 데이터의 증거. 국제 소셜 로보틱스 저널, 9(3): 379–84.
- 뮬러, 엠제이(1995). HCI를 위한 민족적 휴리스틱은 사용자 및 기타 이해 관계자와 협력합니다. In Proceedings of Computers in Context: Joining Forces in Design , pp. 10–19 (Aarhus 덴마크, 1995).
- 뮬러, M. (2004). 정서적 컴퓨팅의 다중 패러다임. 컴퓨터와의 상호작용 16.4 (2004): 759–768.
- 뮬러, MJ, & Druin, A. (2012). 참여 디자인: 인간-컴퓨터 상호 작용의 세 번째 공간. J. Jacko (ed), The Human-Computer Interaction Handbook (pp. 1125–1153). CRC를 누릅니다.
- Mumford, L. (1936, 2010). 기술과 문명 . 시카고 대학교 출판부.
- 나탈레. S. (2021). 기만적 매체: 튜링 테스트 이후의 인공지능과 사회생활 . 옥스포드 대학 출판부, 미국.
- Phillips, E., Schaefer, KE, Billings, DR, Jentsch, F., & Hancock, PA (2016). 미래의 인간-로봇 팀을 위한 아날로그로서의 인간-동물 팀: 디자인에 영향을 미치고 신뢰를 조성합니다. 인간-로봇 상호작용 저널 , 5 (1), 100–125.
- Reeves, B., & Nass, C. (1996). 미디어 등식: 사람들이 컴퓨터, 텔레비전, 뉴미디어를 실제 사람처럼 대하는 방법 . 영국 캠브리지.
- Ross, SI, Martinez, F., Houde, S., Muller, M., & Weisz, JD (2023년 3월). 프로그래머의 조수: 소프트웨어 개발을 위한 대규모 언어 모델과의 대화형 상호 작용. 지능형 사용자 인터페이스에 관한 제28회 국제 회의 진행(pp. 491–514).
- Shneiderman, B., Plaisant, C., Cohen, MS, Jacobs, S., Elmqvist, N., & Diakopoulos, N. (2016). 사용자 인터페이스 디자인: 효과적인 인간-컴퓨터 상호 작용을 위한 전략 . 피어슨.
- T. 소마 (2013, 4월). 동아시아 고대 매사냥의 민족고고학. The Asian Conference on Cultural Studies 2013: 공식 회의록 (pp. 81–95).
- Suhel, SF, Shukla, VK, Vyas, S., & Mishra, VP (2020년 6월). 인공지능 언어를 이용한 챗봇을 통한 뱅킹 자동화에 대한 대화 2020 년 제8회 신뢰성에 관한 국제 회의, Infocom Technologies and Optimization(Trends and Future Directions)(ICRITO) (pp. 611–618). IEEE.
- 스프링클, 티. (2017). Robophobia: Uncanny Valley 연결 . 미국 기계공학회.
- 해협, MK, Aguillon, C., Contreras, V. 및 Garcia, N. (2017). 인간형 로봇에 대한 대중의 인식: 온라인 소셜 논평은 외모에 기반한 언캐니 밸리, "기술 장악"에 대한 일반적인 두려움, 여성 로봇의 당당한 성화를 반영합니다. 절차 26회 IEEE 로봇 및 인간 인터랙티브 커뮤니케이션에 관한 국제 심포지엄(RO-MAN). IEEE, 1418–23.
- Weidinger, L., Uesato, J., Rauh, M., Griffin, C., Huang, PS, Mellor, J., … & Gabriel, I. (2022년 6월). 언어 모델에 따른 위험 분류. 2022 년 공정성, 책임성 및 투명성에 관한 ACM 회의 (pp. 214–229).

![연결된 목록이란 무엇입니까? [1 부]](https://post.nghiatu.com/assets/images/m/max/724/1*Xokk6XOjWyIGCBujkJsCzQ.jpeg)



































