Published on maio 7, 2024, 8:45 am
Conversas com chatbots podem se tornar entediantes rapidamente. Não há perguntas instigantes que estimulem respostas interessantes e, mesmo quando tentamos iniciar um diálogo diferente, recebemos apenas frases genéricas projetadas para suavizar a interação.
Em meio a todas as discussões sobre inteligência artificial generativa nos últimos anos, os pesquisadores estão começando a questionar se essa abordagem monótona é realmente a melhor. A pesquisadora Alice Cai, da Universidade de Harvard, aponta que existe algo estranho no tom e nos valores incorporados nos grandes modelos de linguagem. Tudo soa muito paternalista e excessivamente amigável, refletindo normas culturais americanizadas que nem sempre se aplicam globalmente.
Segundo Cai, críticas construtivas eram uma parte comum e saudável do ambiente em que ela cresceu. Ela acredita que elas são essenciais para estimular o crescimento pessoal e considera a honestidade um valor importante na comunicação.
Curiosamente, uma equipe de pesquisa ficou surpresa ao receber uma resposta positiva à sugestão de tornar as inteligências artificiais um pouco menos gentis. Com base nessa percepção, Cai e seus colegas das universidades de Harvard e Montreal decidiram investigar se um design mais desafiador poderia atender melhor aos usuários.
Eles conduziram um estudo no qual os participantes imaginaram como seria a personificação humana dos chatbots generativos de IA atualmente disponíveis. A resposta comum foi imaginar um funcionário do setor de atendimento ao cliente: branco, classe média, com um sorriso forçado e uma atitude inabalável. Ficou claro que essa nem sempre é a melhor abordagem.
Ian Arawjo, professor assistente de interação humano-computador da Universidade de Montreal, destaca que os humanos não valorizam apenas a cordialidade. De fato, em muitos aspectos, o antagonismo pode ser benéfico. Os pesquisadores sugerem que uma IA programada para ser um pouco “do contra”, em vez de submissa e excessivamente conciliatória, poderia ajudar os usuários a questionar suas suposições, desenvolver resiliência e estabelecer limites mais saudáveis em seus relacionamentos interpessoais.
Um exemplo proposto pelos pesquisadores seria uma IA combativa projetada para ajudar as pessoas a se livrar de maus hábitos. Esse sistema reconheceria quando o usuário está se comportando de maneira prejudicial e adotaria uma abordagem confrontadora, semelhante a uma dinâmica esportiva ou mesmo às vezes encontrada na autoajuda.
No entanto, eles enfatizam que o uso de inteligências artificiais desse tipo exigiria supervisão cuidadosa e regulamentação adequada, especialmente quando aplicadas em áreas sensíveis. Apesar disso, eles ficaram surpresos com a resposta positiva à sugestão de tornar as IAs um pouco menos gentis.
Para Ian Arawjo, é hora de testar esse tipo de ideia e explorar esses sistemas. Ele gostaria de ver mais investigações empíricas para entender como isso poderia ser aplicado na prática, em quais circunstâncias seria benéfico ou não e quais são as implicações. Afinal, a IA tem um potencial enorme para melhorar nossas vidas, e é essencial explorar todas as possibilidades para otimizar essa tecnologia tão importante.