Sobre o antropomorfismo da IA

Apr 27 2023
por Ben Shneiderman (Universidade de Maryland, EUA) e Michael Muller (IBM Research, EUA) Introdução Antropomorfismo é o ato de projetar qualidades ou comportamentos semelhantes aos humanos em entidades não humanas, como quando as pessoas dão animais, objetos ou fenômenos naturais características ou emoções humanas. Houve debates de longa data sobre o uso de designs antropomórficos para sistemas baseados em IA, remontando (pelo menos) a um painel inicial na ACM Computer-Human Interaction Conference intitulado “Anthropomorphism: from ELIZA to Terminator 2” (Don e outros

por Ben Shneiderman (Universidade de Maryland, EUA) e Michael Muller (IBM Research, EUA)

A natureza da IA ​​é uma ferramenta ou um agente social antropomorfizado? Fonte: Dreamstudio.

Introdução

Antropomorfismo é o ato de projetar qualidades ou comportamentos semelhantes aos humanos em entidades não humanas, como quando as pessoas dão a animais, objetos ou fenômenos naturais características ou emoções humanas. Houve debates de longa data sobre o uso de designs antropomórficos para sistemas baseados em IA, remontando (pelo menos) a um painel inicial na ACM Computer-Human Interaction Conference intitulado “Anthropomorphism: from ELIZA to Terminator 2” (Don e outros, 1992).

As questões de design em torno do antropomorfismo incluem se:

  1. um personagem semelhante a um agente humano deve ser mostrado em uma tela,
  2. os computadores devem se apresentar como atores sociais semelhantes aos humanos com interfaces de usuário de texto ou voz,
  3. prompts ou respostas de computador devem usar pronomes de primeira pessoa, por exemplo, "Eu ficaria feliz em ajudá-lo" e
  4. os usuários preferem designs alternativos de manipulação direta que lhes permitem clicar, arrastar, aplicar zoom ou tocar.

Michael e Ben continuaram a trocar notas durante março e abril de 2023, e Eds. Chenhao Tan, Justin Weisz e Werner Geyer sugeriram que seus argumentos fossem tornados públicos. Este artigo representa uma versão levemente editada da troca de e-mails, segmentada em quatro partes:

  • Parte I — Sobre o antropomorfismo
  • Parte II — Sistemas computacionais antropomórficos
  • Parte III — Inteligente, não inteligente ou um continuum?
  • Parte IV — Sobre o uso do “eu”

Durante a troca, outras pessoas foram trazidas para a conversa para adicionar comentários e perspectivas. Estaremos publicando suas perspectivas nos próximos artigos ( veja abaixo uma lista ). Se você gostaria de adicionar sua voz à mistura, entre em contato com Chenhao Tan .

O debate

Parte I — Sobre o antropomorfismo

Ben Shneiderman : Uma preocupação particular que tenho é a forma como a saída GPT-4 usa pronomes de primeira pessoa, sugerindo que é humano, por exemplo: “Minhas desculpas, mas não poderei ajudá-lo com esse pedido.” A alternativa simples de “GPT-4 foi projetada pela OpenAI para não responder a solicitações como esta” esclareceria a responsabilidade e evitaria o uso enganoso de pronomes de primeira pessoa. No meu mundo, as máquinas não são um “eu” e não deveriam fingir ser humanos.

Michael Muller : Em primeiro lugar, nós, humanos, há muito tempo abordamos artefatos e entidades naturais como seres semelhantes a pessoas. Demétrio de Phelerum escreveu sobre prosopopeia (personificação) antes de 280 aC. A entrada da Wikipedia sobre prosopopeia fornece um exemplo do Livro de Sirach, no qual “a Sabedoria canta seus próprios louvores, / entre seu próprio povo ela proclama sua glória”. Existem muitos relatos de seres criados que assumem uma forma de consciência ou agência, desde o golem histórico (não o de Tolkien, chamado “gollum”) até Mary Wollstonecraft Shelley e todo o caminho de volta ao mito de Pigmalião e Galatea.

Portanto, acho que há muitos precedentes para abordarmos as coisas feitas como tendo qualidades semelhantes às humanas. Reeves e Nass (1996) perseguiram esse conceito como um programa de pesquisa, especificamente sobre computadores como atores sociais. Veja também minha crítica de sua posição em Interacting with Computers (Muller, 2004), em que revisei a história mais longa da personificação.

Em segundo lugar, estamos agora explorando o que significa para um algoritmo ser um parceiro de conversação não determinado. Os LLMs são, concordo, papagaios estocásticos e, portanto, sem “mente”. No entanto, eles têm uma presença social convincente. Ainda não sabemos o que podemos fazer com essa presença social. (Eu digo "faça" em um sentido pragmático de "para que podemos usá-la".) Além de todo o atual exagero irritante (e às vezes perigoso) da IA, há questões de pesquisa aqui sobre que tipo de entidades estamos construindo e sobre como nos relacionamos com eles. IMHO, ainda não sabemos.

Suspeito que precisaremos decompor nosso binário humano/não-humano em uma dimensão, ou em múltiplas dimensões. Em um modo de pensar convencional do Euroocidente, já fazemos isso em nosso relacionamento com os animais. Para a maioria de nós, uma rocha é apenas uma rocha (mas observe que algumas filosofias indígenas e aborígines desafiariam essa afirmação). Da mesma forma, alguns animais - tritões, por exemplo - têm personalidade interessante apenas no trabalho de Capek (Capek et al., 1996), mas não em nossas interações com eles (e eu me lembro que o trabalho companheiro de Capek sobre relacionamentos que deram errado era sobre robôs (Capek, 2004)). Elizabeth Phillips e colegas (2016) exploraram as relações mais profundas que temos com alguns animais, sendo os cães o principal exemplo de presença social. Veja também os conceitos de Haraway (2003) em espécies companheiras, e intrigantemente o trabalho de Fijn (2011) sobre as relações humanas com os pôneis lasso-pole da Mongólia. E assim, há gradações a considerar, ao invés de uma simples distinção humano/não-humano em relação aos animais.

Philips e outros. (2016) estavam usando relacionamentos humano-animal para pensar sobre relacionamentos humano-IA. Acho que, assim como acontece com os animais, existem graus de sociabilidade, ou graus de presença social, que podem ser aplicáveis ​​a coisas computacionais. Acho que ainda não sabemos o suficiente para excluir essas possibilidades.

Se você me perguntar sobre os temas em sua postagem sobre fraude e manipulação, estou ao seu lado sobre como proteger as pessoas e apoiaria regulamentos rígidos para proteger as pessoas de IAs que fingem ser humanos para enganar as pessoas. Para mim, esse é um conjunto de preocupações separado de como exploramos novas tecnologias, tecnologias recém-divulgadas e tecnologias recém-reinterpretadas (todas as quais podem ser usadas para ponderar futuros possíveis), desde que nossas explorações sejam honestas, totalmente divulgadas e sem malícia.

Parte II — Sistemas computacionais antropomórficos

Ben Shneiderman: Sim, concordo que a personalidade foi usada para artefatos de Aristóteles e continuará a ser usada. Eu não acho que posso acabar com essa ideia de zumbi.

No entanto, ideias zumbis podem ter impactos problemáticos. Uma coisa é um usuário de artefato comum fazer referências humanas para barcos, carros ou Roombas, mas vejo isso como um problema quando os designers usam essa linguagem, resultando em produtos ruins. A longa história de sistemas antropomórficos com falha remonta antes mesmo do Microsoft BOB e do Clippie, mas continuou a produzir falhas de bilhões de dólares. O mais recente erro grave e mortal de design foi a insistência de Elon Musk de que, como os motoristas humanos usavam apenas olhos, seus Teslas usariam apenas vídeo. Ao impedir o uso de radar ou LIDAR, apesar das objeções de seus engenheiros, ele projetou um sistema abaixo do ideal que produz resultados mortais.

Para mim, as metáforas são importantes (Lakoff & Johnson, 2006), então os designers devem estar alertas para como sua crença de que os computadores devem se comunicar em linguagem natural, assim como as pessoas, leva ao fracasso em usar os recursos do computador, como exibições abundantes de informações visuais Informação.

Apoio adicional para a mudança do antropomorfismo para projetos que dão aos usuários maior controle vem do sociólogo Lewis Mumford. Fui fortemente influenciado por seu livro clássico, Technics and Civilization (1936) ,que oferece uma análise clara no capítulo sobre “O Obstáculo do Animismo”. Mumford descreve como os projetos iniciais baseados em modelos humanos ou animais são um obstáculo que precisa ser superado no desenvolvimento de novas tecnologias: “o tipo de máquina mais ineficaz é a imitação mecânica realista de um homem [/ mulher] ou outro animal”. O ponto de Mumford é que as capacidades distintivas da tecnologia, como rodas, motores a jato ou telas de computador de alta resolução, podem ser negligenciadas se os designers se apegarem às noções “bioinspiradas”, como interfaces de conversação. Portanto, é compreensível que o fraseado antropomórfico seja oferecido como um projeto inicial para sistemas de IA, mas ir além desse estágio permitirá que os designers aproveitem melhor os algoritmos sofisticados, bancos de dados enormes, sensores sobre-humanos, exibições abundantes de informações,

Michael Muller : Para mim, a questão central é: “Como os humanos podem se relacionar com as inteligências não humanas?” O antropomorfismo é uma resposta possível, mas não a única, e não o único tópico relevante.

Você e eu concordamos que as palavras são importantes e que as metáforas são importantes. É por isso que eu estava tão interessado no trabalho de Phillips et al. (2016). Eles buscavam metáforas úteis (plural) para IAs (plural) observando as relações humanas com os animais. Isso é verdade, de uma maneira diferente, em grande parte da obra de Haraway (2003).

Como escrevi anteriormente, minha linguagem para nossa pergunta compartilhada é: “Como os humanos podem se relacionar com as inteligências não humanas?” Para mim, isso está mais próximo da questão central, e o antropomorfismo é uma subquestão entre muitas explorações possíveis de estranhas entidades não humanas. O antropomorfismo é uma abordagem metafórica para novas ideias e novas entidades. A meu ver, as metáforas tornam-se figuras de pensamento, por meio das quais podemos articular um pouco dessa estranheza. (Seguindo a teoria retórica contemporânea, escrevi “figuras de pensamento” (por exemplo, Lakoff, 1986; Lakoff & Johnson, 2008) não apenas “figuras e discurso” e, novamente, acho que concordamos.) Gostaria que explorássemos as metáforas sobre LLMs, para nos ajudar a pensar sobre “o que” eles “são”, mas também o que eles podem ser, ou podem se tornar.

Dito dessa forma, espero que nosso uso da linguagem (humana) possa nos ajudar a abrir um espaço conceitual sobre a natureza das coisas computacionais que estamos fazendo e com as quais interagimos. Acho que a metáfora será útil, assim como a categoria mais ampla de analogia. Essas coisas agora estão MUITO em camadas. Por exemplo, enquanto todo mundo está falando sobre LLMs e FMs, alguns de nós (incluindo você e eu) estão pensando muito sobre as UIs para esses LLMs.

A camada LLM é provavelmente um “nós” – afinal, ela contém os materiais colhidos não consensualmente de centenas de milhares de humanos. Ou talvez eu devesse ter dito “materiais capturados”. Ou “vozes roubadas”.

A camada de interface do usuário pode ser um “eu”, porque esse é o estilo de interação que parece funcionar para nós humanos. Acho que você preferiria que a camada de interface do usuário fosse um "isso" - ou talvez se referisse a si mesma na terceira pessoa, como o auxiliar ferido (soldado ciborgue) nos livros Imperial Radch de Ann Leckie (Leckie, 2013) que tenta dissuadir uma tentativa de resgate dizendo: "Capitão da Frota ... com todo o respeito, esta lesão é muito grave para valer a pena reparar."

Caracteristicamente, estou mais interessado em abrir possibilidades, do que em prevenir falhas. Sim, Clippy e BOB foram um fracasso, mas isso não significa que todas as personificações serão um fracasso. Nossos experimentos com uma IU personificada para um LLM foram bem-sucedidos. Ninguém que usa o protótipo do nosso Programmer's Assistant (Ross et al. 2023) fica confuso sobre seu status ontológico. Ninguém confunde isso com outra coisa senão uma torradeira inteligente, mas acaba sendo uma torradeira inteligente transformadora e útil. (Não “transformativamente inteligente”, apenas “transformativamente útil”.) Portanto, agora temos Clippie e BOB como exemplos de falhas, mas também temos nosso Assistente do Programador como um exemplo de sucesso (e talvez alguns dos antigos Nass e Reeves' experimentos também). O antropomorfismo não leva necessariamente a problemas.

IMHO, UIs para LLMs são um espaço de design genuinamente novo. Ainda não sabemos quais são os fatores cruciais desse espaço. Eu suspeito que esses fatores irão interagir uns com os outros. Por exemplo, quando o antropomorfismo é benéfico e quando é prejudicial? (ou seja, que outros fatores interagem com a personificação?) Quando escrevemos mensagens HCXAI (e mensagens implícitas), quais atributos serão importantes, quando e para quem? Veja, por exemplo, o artigo de Upol Ehsan e Samir Passi sobre XAI com dois grupos de usuários e três gêneros de mensagens (Ehsan et al., 2021). E que “ferramentas de pensamento” (por exemplo, figuras de pensamento) podem nos ajudar a explorar esse novo espaço de design?

Parte III — Inteligente, não inteligente ou um continuum?

Ben Shneiderman: Michael sugere que nossa pergunta compartilhada é “Como os humanos podem se relacionar com inteligências não humanas?” Mas discordo que as máquinas devam ser descritas como inteligentes. Eu reservo certas palavras como pensar, saber, entender, inteligência, conhecimento, sabedoria, etc. para as pessoas, e encontro outras palavras para descrever o que as máquinas fazem. Fiz isso em todas as seis edições de Designing the User Interface (2016) e acho que foi uma importante decisão produtiva.

A leitura do livro de Simone Natale (2021) seria útil. Ele diz que os robôs antropomórficos e humanóides são uma ideia atraente, mas historicamente levaram a produtos fracassados. Ele descreve o “engano banal” de muitos aplicativos e o “engano direto e deliberado”, que são “tão centrais para o funcionamento da IA ​​quanto os circuitos, software e dados que a fazem funcionar”. Natale tem insights maravilhosos sobre a disposição das pessoas de serem enganadas.

Respeito Michael e sua longa devoção ao design participativo e o valorizo ​​como colega, então realmente espero afastar Michael de uma crença problemática na inteligência não humana.

Lembre-se de que cerca de um quarto da população tem medo de computadores, especialmente quando o design sugere que os computadores são como pessoas (Liang e Lee, 2017; Sprinkle, 2017; Strait et al., 2017). Outros também sugeriram que “os sistemas de antropomorfização podem levar ao excesso de confiança ou ao uso inseguro” (Weidinger et al., 2022).

Ao elevar as máquinas à capacidade humana, diminuímos o caráter especial das pessoas. Estou ansioso para preservar a distinção e esclarecer a responsabilidade. Portanto, não acho que as máquinas devam usar pronomes de primeira pessoa, mas devem descrever quem é o responsável pelo sistema ou simplesmente responder de maneira semelhante a uma máquina. Às vezes, é preciso um pouco de imaginação para obter o fraseado certo, mas é melhor quando é mais compacto.

Nos primórdios das máquinas bancárias, o jogo social era repetidamente tentado com “Tillie the Teller”, “Harvey Wallbanker” etc. que eram tagarelas, por exemplo, “Bom dia. O que eu posso fazer para você hoje?" mas estes falharam, dando lugar a "Você gostaria de depositar ou sacar?" ou ainda mais compactamente apenas dando botões para tocar para o que os clientes queriam. Os usuários mudaram para designs que lhes permitiam realizar suas tarefas o mais rápido possível, dando-lhes a sensação de que estavam operando uma máquina.

A questão NÃO é se os humanos podem se relacionar com uma máquina social enganosa - claro que podem. A questão é “Reconhecemos que humanos e máquinas são categorias diferentes?” ou “Respeitaremos a dignidade humana, projetando máquinas eficazes que melhorem a auto-eficácia e a responsabilidade humanas?” Os mais de 2 milhões de aplicativos na Apple Store são baseados principalmente em manipulação direta. Os principais aplicativos, como compras na Amazon, pesquisa no Google, navegação, etc., evitam designs semelhantes aos humanos porque eles entendem que são subótimos e impopulares. Michael pode apontar três aplicativos amplamente usados ​​que possuem uma interface semelhante à humana?

Michael Muller: Parte da minha posição é baseada nas relações homem-animal. Existe algum tipo de inteligência em um cão, e particularmente em um cão altamente treinado, como um cão-guia ou um cão pastor (Phillips et al., 2016) ou um pônei lasso-pole (Fjin, 2011). Existe um tipo de inteligência diferente e muito mais frio em um falcão (Soma, 2013). E ainda outro tipo de inteligência em um boi (Phillips et al., 2016). Nós temos relacionamentos com esses animais.

Acho que cães pastores e cães de caça apresentam casos interessantes. Nós (humanos, não Michael) os enviamos para fazer coisas (Kaminski e Nitzschner, 2013). Coordenamos nossas ações com eles – às vezes à distância. Eles coordenam suas ações conosco.

Depois, há amebas e paramécios, que podem sentir e responder, mas não têm muito do que poderíamos considerar um cérebro, e menos ainda uma mente.

Mas os cães são um caso intermediário. Eles têm uma presença social. Eles têm algo como uma mente. Eles têm seus próprios objetivos e, às vezes, os objetivos deles e os nossos podem estar alinhados, às vezes não. Às vezes podemos mudar suas mentes. Às vezes, eles podem mudar nossas mentes. Acho que isso os faz parecer inteligências não humanas.

Dito isto, não vejo os LLMs (ou, mais propriamente, as UIs para LLMs) como tendo objetivos, intenções e certamente não mentes. As UIs que construímos têm presença social. Podemos projetá-los para que pareçam ter personalidades distintas — embora saibamos que as torradeiras inteligentes não têm personalidade. Papagaios têm algo como personalidades, mas não papagaios estocásticos (Bender et al., 2021). Mas os papagaios estocásticos podem ter uma espécie de presença social. Isso os torna estranhos e novos, pois misturam atributos de torradeiras e de seres sociais. As pessoas escreveram sobre o "vale misterioso". Quando eu disse “estranho”, poderia ter dito “estranho”. Eu acho que eles são útil e produtivamente estranhos. Eles nos ajudam a ter pensamentos novos e experimentais.

Ainda penso na inteligência como um continuum, não como um binário. Poderíamos ancorar esse continuum com amebas de um lado e humanos do outro. É a região obscura intermediária que me interessa. Isso porque penso nisso como uma região de hibridismo ou “terceiro espaço”. Um espaço estranho. Em meu artigo de Aarhus de 1995 (Muller, 1995), e novamente no capítulo do Handbook com Allison Druin (Muller e Druin, 2012), afirmamos que esses espaços de mistura de culturas são lugares férteis para novos entendimentos e conhecimentos diferentes, exatamente porque são estranhos. Acho que as relações humano-IA também podem ser espaços híbridos de novidade.

Se você diz que nem os animais nem os algoritmos têm inteligência especificamente humana, então estou de acordo com você. Até agora, nós, humanos, ainda somos especiais – embora artigos etológicos recentes sugiram que não somos tão especiais quanto pensávamos.

Para mim, não é uma questão de metáfora. É uma questão de possibilidades e de intermediários obscuros, mas interessantes.

Aceito que você rejeite a noção de inteligências não humanas. Acho que é aí que nosso “debate” pode estar focado. Não temos que concordar. No entanto, precisamos concordar com um título. Se você não quer um título sobre inteligências não humanas, então talvez possamos tentar um título menos específico, como “Relacionamentos entre humanos e IAs”?

Ben Shneiderman : Obrigado por sua resposta e discussão sobre os animais como um caso intermediário. Para mim, a questão distintiva é a responsabilidade, por isso é importante lembrar que os donos de animais de estimação são legal e moralmente responsáveis ​​pelo que seus animais de estimação fazem.

A discussão torna-se mais complexa se considerarmos os seres humanos que não são totalmente responsáveis ​​por suas ações, como aqueles que consumiram álcool ou drogas que interferem em sua inteligência, memória, habilidades perceptivas, cognitivas e motoras.

Então você poderia dizer que a inteligência é um continuum, mas a responsabilidade é mais binária e é um fator importante no design. Acho que a discussão não pode se limitar à inteligência, mas deve incluir memória, habilidades perceptivas, cognitivas e motoras.

Estou interessado em enfatizar o design, que esclarece que as ferramentas de IA são projetadas por humanos e organizações, que são legalmente responsáveis ​​pelo que fazem e pelo que as ferramentas fazem, embora as ferramentas possam ser mal utilizadas, etc.

Nosso debate é interessante, mas até a escolha do título nos divide. Você sugere “Relacionamentos entre humanos e IAs”? Suponho que seja razoável discutir “Relações de humanos e carros/barcos/escavadeiras/lâmpadas”, mas a palavra “relacionamentos” sugere algo como uma relação de pares, concedendo muito aos AIs. Eu ficaria mais feliz em “Projetar futuros sistemas de IA para atender às necessidades humanas”. Para mim, as necessidades humanas incluem a preservação ambiental e da biodiversidade e os Objetivos de Desenvolvimento da Sustentabilidade da ONU .

Parte IV — Sobre o uso do “eu”

Michael Muller: Esqueci de responder sobre chatbots comerciais que respondem na primeira pessoa do singular. Claro, existem muitos exemplos dos LLMs atuais. Se esses serviços são economicamente viáveis ​​hoje, as empresas que os fazem estão apostando em sua viabilidade comercial e competitiva : Bard, Bing, HuggingFace Open Assistant e assim por diante.

No entanto, essas são as UIs às quais você tem se oposto. Aqui estão exemplos de alguns anos antes. Suhel et al. (2020) descrevem chatbots bancários que usam a primeira pessoa do singular. Meu banco tem um recurso semelhante. A IGT Solutions oferece um chatbot para reservas de passagens aéreas e perguntas frequentes. A SABA Hospitality oferece uma oferta semelhante para reservas de hotéis e serviços aos hóspedes. Estas são ofertas comerciais que usam chatbots singulares em primeira pessoa.

Pesquisadores usaram esse tipo de paradigma (isto é, IA referindo-se a si mesma como “eu” ou “mim”) em trabalhos relacionados ao programa de pesquisa de Nass e Reeve “Computers Are Social Actors” (por exemplo, Reeves e Nass, 1996). Posso encontrar um exemplo já em 1998 (Elliott e Brzezinski, 1998) e suspeito que alguns dos artigos da década anterior também continham esse tipo de diálogo. Acho que você vai se opor mais fortemente à descrição de Strommen dos brinquedos infantis referindo-se a si mesmos como “eu” (Bergman (ed.), 2000).

Concordo que existe um histórico de pessoas rejeitando chatbots. Em nossa experiência, o problema de aceitação é sobre a correspondência insatisfatória da solicitação do usuário com o conjunto de intenções do chatbot (ou seja, mapear a solicitação para a resposta). Temos visto que os LLMs atuais parecem fornecer respostas mais apropriadas, talvez exatamente porque não usam o mapeamento de enunciados para intenções da geração anterior. Não tenho certeza se as pessoas rejeitam chatbots que usam um pronome. Acho que eles rejeitam chatbots que prestam um serviço ruim. Podemos precisar fazer análises mais sistemáticas dos fatores que levam à aceitação e aos fatores que levam ao fracasso.

Ben Shneiderman: Obrigado por voltar à questão dos pronomes. Você está certo ao dizer que existem chatbots comerciais, que tiveram sucesso com o uso do “I”. No entanto, como você aponta, muitos chatbots textuais de atendimento ao cliente falharam porque simplesmente não eram tão úteis.

Outro exemplo a seu favor é o sucesso de Alexa e Siri, que são interfaces de usuário baseadas em voz (VUIs) que usam pronomes “I”. Com VUIs, apresentações compactas e designs inteligentes tornaram o “I” aceitável, mas o cálculo muda com as interfaces visuais do usuário.

No entanto, os sistemas de resposta de voz baseados em telefone que orientam os usuários através de uma árvore de menu parecem ter mudado do uso inicial de pronomes “eu” para “você” em exemplos que examinei, por exemplo, “Você pode digitar ou dizer 1 para ouvir o horário de funcionamento …” (ao contrário do estranho “Se você digitar ou disser 1, eu lhe darei o horário de funcionamento…”).

Outro comentário é que você escreve “existe um histórico de pessoas rejeitando chatbots”. Acho que nossa discussão será mais concreta se distinguirmos diferentes comunidades de usuários. A maioria dos usuários não percebe se a interface é “eu” ou “você”, mas alguns usuários não gostam muito do engano do “eu”, enquanto outros gostam muito da sensação de poder que ganham com um design “você”. Eu gostaria de saber a porcentagem em cada categoria, especialmente separada por gênero, idade, experiência com computador etc. Outra questão interessante é se a preferência por pronomes está mudando com o passar dos anos.

Meu ponto final é sobre a teoria CASA de Reeves e Nass (1996). Gostei de minhas discussões com Cliff Nass sobre essas questões, embora tenha vencido a aposta de 1995 sobre o futuro do Microsoft BOB, sobre o qual ele consultou, mas esperava fracassar - só não esperava que fracassasse tão totalmente a ponto de haver não havia versão 2, simplesmente foi removido do mercado em um ano. Embora os estudos de Reeves & Nass demonstrem que os usuários responderiam socialmente aos computadores, eles não consideraram a hipótese alternativa, que era a de que os usuários prefeririam as interfaces de manipulação direta que permaneceram dominantes nas lojas Apple e Android e nos designs de laptops baseados na web.

Em conclusão, embora existam situações em que os computadores podem se tornar sucessos comerciais fingindo ser uma pessoa, o design dominante continua sendo a tela sensível ao toque do dispositivo móvel e os cliques do mouse baseados na web que mantêm os usuários no controle e evitam o design antropomórfico (eu diria armadilha!). Acho que há uma alternativa clara ao antropomorfismo. A questão é maior do que pronomes.

Enquanto encerávamos essa discussão, surgiram discussões online, como esta postagem no blog de Paola Bonomo (2023).

Resumo do debate

por Chenhao Tan e Justin D. Weisz

Como editores da publicação Human-Centered AI Medium , agradecemos que Michael e Ben tenham compartilhado suas valiosas percepções sobre a questão do antropomorfismo. Em particular, consideramos sua discussão instigante e esclarecedora sobre várias questões centrais. Aqui estão três conclusões principais deste debate:

  • Tanto Michael quanto Ben concordam que a escolha de usar “eu” (ou seja, antropomorfismo) pode ter um impacto significativo nos usuários.
  • Ben assume uma posição clara sobre uma distinção binária entre inteligência humana e não humana e destaca a importância da responsabilidade: designers e desenvolvedores devem assumir a responsabilidade por ferramentas infundidas com IA.
  • Michael, em comparação, adota uma atitude mais fluida em relação à inteligência como um continuum, apresentando inúmeras analogias com as relações humano-animal. Ele argumenta que existe uma “região obscura entre” a inteligência humana e a inteligência exibida pelas amebas, que é interessante e pouco explorada como um espaço de design.

Compartilhe sua perspectiva

Qual é a sua posição sobre a questão do antropomorfismo em sistemas de IA? Qual argumento o convenceu mais? Você tem uma perspectiva diferente? Gostaríamos muito de ouvir o seu ponto de vista! Entre em contato com Chenhao Tan se desejar que seus comentários bem informados sejam incluídos nesta discussão.

Aqui estão os comentários compartilhados por outras pessoas na comunidade.

  • Pattie Maes (MIT Media Lab, EUA) — 10 de abril de 2023
  • Susan Brennan (Stony Brook University, EUA) — 10 de abril de 2023
  • Ron Wakkary (Universidade Simon Frasier, Canadá) — 18 de abril de 2023
  • Mary Lou Maher (Universidade da Carolina do Norte, Charlotte, EUA) — 26 de abril de 2023
  • Bender, EM, Gebru, T., McMillan-Major, A., & Mitchell, S. (2021, março). Sobre os perigos dos papagaios estocásticos: os modelos de linguagem podem ser muito grandes?. Em Anais da conferência ACM de 2021 sobre justiça, responsabilidade e transparência (págs. 610–623).
  • Bergman, E. (ed.). (2000). Dispositivos de informação e além: design de interação para produtos de consumo . Morgan Kaufmann.
  • Bonomo, P., (25 de março de 2023). Uma IA ética nunca diz “eu”.https://livepaola.substack.com/p/an-ethical-ai-never-says-i
  • Capek, K. (2004). RUR (robôs universais de Rossum) . Pinguim.
  • Capek, K., Weatherall, M. & Weatherall, R. (1996). Guerra com os Newts . Northwestern University Press.
  • Don, A., Brennan, S., Laurel, B., & Shneiderman, B. (1992, junho). Antropomorfismo: de ELIZA a Terminator 2. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (pp. 67–70).
  • Elliott, C., & Brzezinski, J. (1998). Agentes autônomos como caracteres sintéticos. Revista AI , 19 (2), 13–13.
  • Fijn, N. (2011). Vivendo com rebanhos: coexistência humano-animal na Mongólia . Cambridge University Press.
  • Haraway, DJ (2003). O manifesto das espécies companheiras: Cães, pessoas e alteridade significativa (Vol. 1, pp. 3–17). Chicago: Prickly Paradigm Press..
  • Kaminski, J., & Nitzschner, M. (2013). Os cães entendem o ponto? Uma revisão da capacidade de comunicação cão-humano. Aprendizagem e Motivação , 44 ​​(4), 294-302.
  • Lakoff, G. (1986). Uma figura de pensamento. Metáfora e símbolo , 1 (3), 215–225.
  • Lakoff, G., & Johnson, M. (2008). Metáforas pelas quais vivemos. Imprensa da Universidade de Chicago.
  • Leckie, A. (2013). A Trilogia Imperial Radch Boxed . Órbita.
  • Liang, Y. e Lee, SA (2017). Medo de robôs autônomos e inteligência artificial: evidências de dados representativos nacionais com amostragem probabilística. Jornal Internacional de Robótica Social, 9(3): 379–84.
  • Müller, MJ (1995). Heurísticas etnocríticas para o trabalho de HCI com usuários e outras partes interessadas. Em Proceedings of Computers in Context: Joining Forces in Design , pp. 10–19 (Aarhus Denmark, 1995).
  • Muller, M. (2004). Múltiplos paradigmas em computação afetiva. Interagindo com Computadores 16.4 (2004): 759–768.
  • Muller, MJ e Druin, A. (2012). Design participativo: o terceiro espaço na interação humano-computador. Em J. Jacko (editor), The Human-Computer Interaction Handbook (pp. 1125–1153). Imprensa CR.
  • Mumford, L. (1936, 2010). Técnica e civilização . Imprensa da Universidade de Chicago.
  • Natale. S. (2021). Mídia enganosa: inteligência artificial e vida social após o teste de Turing . Oxford University Press, EUA.
  • Phillips, E., Schaefer, KE, Billings, DR, Jentsch, F., & Hancock, PA (2016). Equipes humano-animal como um análogo para futuras equipes humano-robô: influenciando o design e promovendo a confiança. Journal of Human-Robot Interaction , 5 (1), 100–125.
  • Reeves, B. & Nass, C. (1996). A equação da mídia: como as pessoas tratam computadores, televisão e novas mídias como pessoas reais . Cambridge, Reino Unido.
  • Ross, SI, Martinez, F., Houde, S., Muller, M., & Weisz, JD (2023, março). O assistente do programador: Interação conversacional com um grande modelo de linguagem para desenvolvimento de software. Em Proceedings of the 28th International Conference on Intelligent User Interfaces (pp. 491–514).
  • Shneiderman, B., Plaisant, C., Cohen, MS, Jacobs, S., Elmqvist, N., & Diakopoulos, N. (2016). Projetando a interface do usuário: estratégias para interação efetiva humano-computador . Pearson.
  • Soma, T. (2013, abril). Etnoarqueologia da falcoaria antiga no leste da Ásia. Na Conferência Asiática de Estudos Culturais 2013: Anais oficiais da conferência (pp. 81–95).
  • Suhel, SF, Shukla, VK, Vyas, S., & Mishra, VP (2020, junho). Conversação para automação bancária através de chatbot usando linguagem de inteligência artificial de máquina. Em 2020, 8ª Conferência Internacional sobre Confiabilidade, Tecnologias Infocom e Otimização (Tendências e Direções Futuras) (ICRITO) (pp. 611–618). IEEE.
  • Polvilhe, T. (2017). Robofobia: Construindo uma ponte sobre o Vale Estranho . Sociedade Americana de Engenheiros Mecânicos.
  • Strait, MK, Aguillon, C., Contreras, V. e Garcia, N. (2017). A percepção do público sobre robôs humanóides: comentários sociais on-line refletem um vale misterioso baseado na aparência, um medo geral de uma “aquisição de tecnologia” e a sexualização descarada de robôs de gênero feminino. Proc. 26º Simpósio Internacional IEEE sobre Robô e Comunicação Humana Interativa (RO-MAN). IEEE, 1418–23.
  • Weidinger, L., Uesato, J., Rauh, M., Griffin, C., Huang, PS, Mellor, J., … & Gabriel, I. (2022, junho). Taxonomia de riscos colocados por modelos de linguagem. Em 2022, Conferência ACM sobre Justiça, Responsabilidade e Transparência (pp. 214–229).