Sistemas de inteligência artificial que soam mais robóticos conseguem influenciar melhor o comportamento humano do que aqueles com linguagem amigável e “humana”. A conclusão vem de quatro experimentos conduzidos por Sidney Scott-Sharoni, recém-doutora pela School of Psychology do Georgia Institute of Technology, nos Estados Unidos.
O que foi feito
A pesquisadora avaliou, em diferentes cenários, se o estilo de comunicação de um agente artificial altera o nível de conformidade dos usuários:
- Trivia: participantes respondiam perguntas e, em seguida, recebiam a sugestão de resposta de uma IA; quanto mais “humano” o tom, menor a chance de mudança na escolha.
- Julgo moral: em dilemas cotidianos, como pagar ou não uma conta cobrada a menos, o conselho de um agente robótico foi seguido com maior frequência.
- Dilema do prisioneiro: jogando contra uma IA, voluntários cooperaram menos quando o sistema apresentava características humanas e mantiveram a confiança quando o tom era robótico.
- Simulação de carro autônomo: nenhum dos estilos garantiu obediência consistente, porém a linguagem humanizada continuou perdendo eficácia.
Por que isso acontece
Os resultados sugerem a presença do “viés de automação” — tendência a considerar máquinas mais objetivas e imparciais do que pessoas. Mesmo classificados como menos simpáticos, os agentes de voz robótica despertaram maior confiança e, portanto, obtiveram mais cooperação dos usuários.
Implicações
De acordo com Scott-Sharoni, preferências declaradas dos usuários (agentes mais “agradáveis”) não garantem melhor desempenho em tarefas onde segurança e obediência são essenciais, como veículos autônomos ou sistemas assistivos. O orientador do estudo, professor Bruce Walker, reforça que compreender o papel social da IA é crucial para projetar tecnologias que realmente ampliem as capacidades humanas.
Imagem: Summit Art Creatis
Com informações de WizyThec

