TEXTOS TEMPORÁRIOS


  • Textos Temporários

PODEM OS ROBÔS LER EMOÇÕES HUMANAS?

Agora, a IA pode sim criar um poema, mas será capaz de compreender as emoções humanas? Ideia apoia-se na teoria de que elas são universais. Mas evidências científicas mostram a falácia. Por isso, agora a Microsoft abandona esse intento

A emoção é o que nos diferencia das máquinas. Essa frase estabelece uma clara divisão entre humanos e Inteligência Artificial (IA), especialmente agora que modelos generativos superam alguns aspectos cognitivos humanos. Se antes falávamos que a máquina jamais seria capaz de criar um poema, agora esse argumento não cola mais. O jeito é dizer que a máquina até pode criar, mas que não consegue contemplar a sua própria criação porque não é capaz de sentir. As máquinas não têm emoções que colorem a existência, alguém poderá dizer.

Durante séculos, pensadores abraçaram a ideia de que a razão deveria ser o guia principal de nossas ações, temendo que a emoção, ao entrar em cena, pudesse comprometer nosso discernimento mais apurado. O conceito de Homo Economicus influenciou o pensamento das ciências sociais econômicas ao definir os humanos como agentes estritamente racionais com objetivos de sempre otimizar seus ganhos. É um paradigma que ainda influencia a cultura ocidental, apesar de muitas evidências científicas demonstrarem que isso não passa de uma falácia. A verdade é que a emoção não é inimiga da razão.

Os trabalhos do neurologista António Damásio representaram um marco na ciência ao desafiar a visão dualista entre razão e emoção. Seu famoso livro O erro de Descartes (1994) teve um papel essencial ao disseminar a relevância das emoções nas tomadas de decisão e na moldagem da personalidade individual. E ele não estava sozinho. Outros pesquisadores demonstraram, baseando-se em diferentes áreas, como neurociência, psicologia, antropologia, que a razão sozinha não tem a capacidade de orquestrar nossas decisões e comportamentos.

Agora estamos em um momento em que a tecnologia também influencia nossas emoções e escolhas. A Inteligência Artificial está cada vez mais presente em nossas vidas, fornecendo sugestões personalizadas, conversando conosco e até tomando decisões em nosso lugar. Diante disso, muitos pesquisadores questionam até que ponto a máquina pode compreender a natureza humana e se realmente deveria fazê-lo.

Nesse contexto, surgiu a Computação Afetiva, área que desenvolve sistemas para reconhecer, interpretar, representar e simular os afetos humanos. O assunto deixou os livros de ficção científica e encontrou seu espaço na academia. A premissa da Computação Afetiva é possibilitar que os computadores entendam as emoções humanas e adaptem suas respostas de acordo com o estado emocional do usuário, sem necessariamente criar humanoides com emoções – pelo menos, esse era o objetivo inicial.

A Computação Afetiva abrange diversas abordagens, podendo variar desde sistemas simples de monitoramento via self-report dos usuários até a incorporação de IA para análise e interpretação de dados emocionais. Embora os sistemas de monitoramento self-report possam ser úteis para coletar informações emocionais diretas dos usuários, é a integração da IA que tem o potencial de revolucionar vários paradigmas nessa área.

Emotional AI é a abordagem que combina diferentes técnicas de IA para tentar detectar, interpretar e inferir sobre as emoções das pessoas de uma maneira complexa para a criação de inovações em diferentes áreas: saúde mental, entretenimento, comportamento do consumidor e outras possibilidades.

É uma promessa sedutora achar que podemos desenvolver uma tecnologia para reconhecer em larga escala aspectos subjetivos, mas será que é tecnicamente possível? Para responder a essa pergunta, precisamos voltar ao que sabemos sobre as emoções humanas. Há diferentes abordagens e teorias, algumas complementares e outras antagonistas, mas neste ensaio vou dialogar com as duas mais importantes no contexto da Computação Afetiva.

A Teoria das Emoções Básicas (TEB) é a mais conhecida no senso comum. Ela argumenta que existem emoções básicas e universais que são biologicamente fixas e com fronteiras bem definidas. Essa teoria ajuda a explicar nossa suposta habilidade em identificar afetos em diferentes culturas, sugerindo um número menor de emoções básicas inatas e compartilhadas por todos os humanos – tipicamente felicidade, raiva, tristeza, medo, surpresa e nojo.

A Teoria Construtivista, no entanto, está do outro lado do campo do jogo científico das emoções. Ela rejeita a hipótese de que existam emoções básicas e universais bem definidas, ou que haja um marcador biológico específico para cada emoção. Para os pesquisadores dessa corrente, as emoções são combinações de diferentes dimensões psicológicas sobre as quais a linguagem e a cultura têm grande influência. De acordo com essa abordagem, as emoções de “raiva” ou “felicidade” são inferências aprendidas como significados dos processos fisiológicos relacionados à homeostase do corpo, em vez de serem originados por uma estrutura cerebral dedicada.

A maioria dos sistemas de Emotional AI é construída com base nas premissas científicas da Teoria das Emoções Básicas por ser uma abordagem que traz mais objetividade para as emoções. Se as emoções são básicas e com marcadores específicos, então especula-se que seja possível treinar um modelo para reconhecer as emoções a partir desses marcadores.

Os projetos de Emotional AI utilizam diversas modalidades, como dados fisiológicos, cerebrais ou comportamentais, sendo a detecção de emoções através das expressões faciais uma das aplicações mais comuns. Por meio de uma simples câmera, o sistema é capaz de identificar emoções como tristeza ou raiva, analisando os dados faciais.

No entanto, as evidências científicas mais recentes refutam a Teoria das Emoções Básicas e apoiam mais a Teoria Construtivista. Estudos em neurociência e psicologia têm demonstrado que inferir os estados mentais de alguém apenas com base na expressão facial é uma abordagem frágil. Isso acontece devido à falta de uma conexão direta entre os movimentos musculares e as emoções, que também varia de pessoa para pessoa e de acordo com a cultura em que estão inseridas.

Não se trata de uma limitação técnica, mas de limites impostos pela própria natureza. Podemos treinar uma IA com imagens de rostos associadas com descrições de emoções, e a máquina então vai sempre classificar uma nova face com uma emoção. O problema é que o modelo faz isso a partir de premissas erradas e evidências frágeis.

Atualmente, vemos o surgimento de vários sistemas de IA construídos com critérios errados. Há algumas semanas, vi que lançaram uma IA que identifica o perfil político de alguém com base em sua fotografia, o que não faz o menor sentido. Esse cenário ocorre porque a IA aprende a partir dos dados fornecidos. Se alimentarmos essa IA com informações inadequadas, ela nos retornará resultados igualmente equivocados, que podem até parecer coerentes, mas, na realidade, continuam sendo imprecisos e de pouca qualidade.

Este é um dos riscos que temos com o avanço da IA. Sempre digo que o desafio não é apenas que a IA pode estar errada, mas que pode estar errada e ainda nos convencer de que está certa. Recentemente, organizei e moderei um painel sobre Computação Afetiva para o Fórum de Governança da Internet da ONU. Reuni grandes nomes da área científica e da indústria sobre o tema. Ao fim do painel, chegamos ao consenso de que o reconhecimento de emoções por expressão facial é falha e que deveria ser evitada. A Microsoft, que participou do nosso painel, optou por aposentar sua IA que utilizava esse método.

Para encerrar, volto à frase que abriu este ensaio. A emoção continua sendo uma das coisas que nos separam das máquinas, pelo menos até o momento. Se antes o objetivo era apenas identificar os afetos humanos, agora ganha força o discurso de que precisamos fazer a máquina ter emoções. Alguns pesquisadores defendem que a sobrevivência da humanidade diante do avanço da IA depende de dotar a máquina com a capacidade de experienciar emoções para criar uma conexão afetiva conosco. Mas a partir de qual das diferentes teorias? Talvez a busca por fazer a IA sentir emoções nos ajude a compreender melhor nossa própria natureza.

DIOGO CORTIZ - Professor na PUC-SP e doutor em Tecnologias da Inteligência e Design Digital pela mesma universidade, com PhD fellowship pela Universidade Paris I – Sorbonne. Tem MBA em Economia Internacional (USP) e pós-doc pela Universidade de Salamanca. É pesquisador na Queen Mary University of London.

Este texto foi publicado pela revista Cult, parceira editorial de Outras Palavras, em seu dossiê “O dilema da Inteligência Artificial”, na edição 297

Autor: Diogo Cortiz
Fonte: Clique Aqui

   104 Leituras


author image
Seção Mantida por OSWALDO FRANCISCO DE ALMEIDA JÚNIOR

Professor associado do Departamento de Ciência da Informação da Universidade Estadual de Londrina. Professor do Programa de Pós-Graduação em Ciência da Informação da UNESP/Marília. Doutor e Mestre em Ciência da Comunicação pela ECA/USP. Professor colaborador do Programa de Pós-Graduação da UFCA- Cariri - Mantenedor do Site.