Novo robô da China parece humano de verdade — e esse vídeo de lançamento está deixando muita gente desconfortável

Tem notícia que dá frio na espinha e curiosidade ao mesmo tempo. A startup chinesa AheadForm exibiu um protótipo que muita gente jurou ser um ator disfarçado: o Only Head, da linha Origin M1. É exatamente o que o nome diz — apenas uma cabeça —, mas com expressões tão convincentes que o público oscilou entre aplauso e pavor.

Apresentado como plataforma de pesquisa em interação humano-robô, o modelo virou teste ao vivo de limites psicológicos. Em demonstrações e vídeos, ele pisca, sorri de canto, franze a testa, acompanha rostos com o olhar e sincroniza a boca com respostas de voz.

O efeito, visto de perto, destoa do que esperamos de um manequim robótico e lembra criaturas “quase humanas” do cinema.

psicologiasdobrasil.com.br - Novo robô da China parece humano de verdade — e esse vídeo de lançamento está deixando muita gente desconfortável

Leia tambémCiclone de até 90 km/h ameaça cinco estados no feriado do Dia das Crianças; veja se o seu está na lista

Por trás do rosto artificial há 25 micromotores instalados sob uma pele sintética texturizada (poros, dobras, brilho de lábios). Esses atuadores controlam pálpebras, sobrancelhas, bochechas e comissuras, permitindo microexpressões rápidas.

Um conjunto de câmeras e microfones identifica vozes, direção do som e movimentos à frente; o sistema então fixa o olhar em quem fala e ajusta a expressão em tempo real — justamente o que dá a sensação de “presença”.

A reação pública tem uma explicação clássica na robótica: o vale da estranheza. Quando um artefato chega perto demais do aspecto humano, mas não chega a enganar por completo, o cérebro detecta pequenas inconsistências (ritmo do piscar, latência no sorriso, rigidez no canto dos olhos) e aciona desconforto em vez de empatia.

É o mesmo estranhamento de bonecos hiper-realistas e animações com movimento facial quase perfeito, porém ligeiramente fora de tempo.

Segundo a AheadForm, o objetivo não é assustar, e sim treinar interação social de máquinas: estudar quais sinais faciais aproximam e quais afastam as pessoas, alimentar modelos de IA afetiva e, no futuro, levar esse aprendizado a assistentes de saúde, recepção, atendimento público e educação. A empresa argumenta que expressões legíveis melhoram o entendimento e reduzem fricção em tarefas de contato direto.

Do outro lado, pesquisadores levantam alertas éticos. Quanto mais um robô parece compreender intenções humanas, maior o risco de superatribuição (achar que ele sente o que não sente).

Entram em pauta transparência de uso, limites para manipulação emocional, proteção de dados biométricos (rosto, voz, padrão de olhar) e sinalização clara de quando há um sistema automatizado do outro lado.

Nos clipes que circularam, o Only Head alterna olhar fixo, piscar lento e meio-sorriso — para alguns, demonstração técnica impecável; para outros, o tipo de cena que rende comentário “incrível… e eu não dormiria com isso no quarto”.

Seja qual for o lado, o protótipo cumpre um papel: expõe o ponto em que expressividade mecânica cruza a linha do conforto e pressiona a conversa sobre onde — e como — queremos conviver com rostos artificiais.

Leia tambémSe a diferença de idade for essa, o relacionamento tem mais chances de dar certo, diz a ciência

Compartilhe o post com seus amigos! 😉