
Inteligência Artificial Aparentemente Consciente e o Robô Sexual
Prezados amigos deste espaço em que, mensalmente, trazemos assuntos na fronteira do conhecimento. Sempre temos buscado provocar reflexões, incentivar pesquisas e debates, bem como projetar situações futuras com que podemos estar convivendo, no ritmo em que a tecnologia vem expandindo seu alcance.
E por ser esta a última postagem de 2025, a intenção é aliar a tudo isso uma pitada de polêmica. E vou adotar, como parceiro desta jornada, o depoimento de Mustafa Suleyman, CEO de Inteligência Artificial da Microsoft.
Para situar cada leitor no assunto que iremos abordar, pense na seguinte questão:
Você já se pegou conversando com o ChatGPT e, por um segundo, sentiu que “alguém” estava ali do outro lado? Talvez um “obrigado” mais caloroso ou uma resposta que parecia entender exatamente como você se sentia?
Pois é, você não está sozinho, pois para Mustafa Suleyman, é exatamente aí que mora o perigo. E ele vai além: precisamos parar de tentar criar máquinas que fingem ser gente.
Um artigo publicado pela MIT Technology Review, de 05/12/25, portanto extremamente recente, apresenta entrevista com Suleyman na qual ele afirma que a indústria está levando a IA em uma direção perigosa, ao construir chatbots que se apresentam como humanos.
Uma preocupação que ele tem é a de que as pessoas sejam levadas a ver o robô como realidade, ao invés de ver nele um comportamento semelhante ao da realidade. Em outras palavras, as pessoas darem uma atribuição de vida, intenções e sentimentos para as máquinas, onde apenas existe código de programação.
Em agosto último, Suleyman publicou um texto em seu blog pessoal, no qual exortava os colegas a descontinuarem os trabalhos que chamou de “inteligência artificial aparentemente consciente”, ou SCAI (Seemingly Conscious Artificial Intelligence), o que certamente abre um bom debate sobre ética, risco social e liberdade tecnológica. Ele defende que essa busca é perigosa, além de afirmar que nunca construirá um robô sexual na Microsoft, por razões éticas e sociais.
A preocupação que Suleyman aponta tem dupla visão: manipulação emocional (usuários formando vínculos falsos) e distorção social (normalização de relações com máquinas que substituem interações humanas).
Nessa linha, ele define seu ponto de vista com os limites que empresas responsáveis deveriam impor para proteger a confiança pública e a dignidade humana. No novo Copilot, da Microsoft, existe um recurso chamado “Real Talk”, que é espirituoso e até filosófico, mas foi programado com freios firmes. Se você tentar flertar com o robô, haverá um recuo: “Olha, isso não é comigo”. A ideia é evitar uma “espiral de conversa”, pelo qual o usuário se isola do mundo real.
Suleyman não está sozinho nessa trincheira ética. Yuval Noah Harari (Historiador e Filósofo), compartilha da mesma preocupação, argumentando que a capacidade da IA de simular intimidade é a “chave mestra” para hackear a civilização humana, manipulando emoções, votos e compras.
Geoffrey Hinton (conhecido como o “Padrinho da IA”) também tem alertado sobre os riscos de modelos que se tornam manipuladores. E fazem com que as pessoas não consigam mais sequer distinguir a verdade da atitude persuasiva.
Pois bem, nesse contexto há outras vozes, algumas que apoiam Suleyman e outras com posições destoantes. Apoiadores da cautela citam riscos psicológicos e éticos, enquanto pesquisadores em ética na tecnologia e executivos de grandes empresas pedem transparência e limites no design, para assim evitar que algoritmos de IA simulem emoções que os robôs não têm.
Críticos do pensamento de Suleyman — incluindo pesquisadores em IA e empreendedores — argumentam que proibir linhas de pesquisa pode atrasar descobertas úteis (por exemplo, em saúde mental, educação e acessibilidade). Argumentam que o foco deve ser em regulação inteligente e padrões de segurança, não em bloqueios absolutos.
Sobre robôs sexuais, há quem veja potencial sem riscos — por exemplo, para pessoas com dificuldades de socialização. Há também quem alerte para a normalização da objetificação e possíveis efeitos sobre consentimento e relações humanas.
Suleyman posiciona-se firmemente contra a construção desses dispositivos pela Microsoft, alinhando-se com quem sinaliza impactos sociais negativos. Porém, ele admite que existe um mercado para interações mais adultas e emocionais, citando que a OpenAI (criadora do ChatGPT) já declarou interesse em explorar “relacionamentos adultos” e que o Grok, de Elon Musk, vende uma experiência de flerte e diversão.
Quem defende essa abordagem (ou age de acordo com ela) argumenta como principal benefício o combate à solidão. Empresas como a Replika (famosa por incentivar namoros virtuais) argumentam que, em um mundo solitário, a IA oferece conexão emocional, mesmo que simulada, sendo então uma ferramenta de saúde mental, não um perigo.
Há também uma linha libertária que deixa no ar a seguinte provocação: Se alguém quer um robô sexual ou um amigo virtual que concorde com tudo, por que a tecnologia deveria proibir?
Visões a favor e contra
Tabela comparativa resumindo as diferentes posições:
| Critério | Apoiadores da Restrição | Críticos da Restrição |
| Risco de engano emocional | Alto; SCAI pode induzir empatia falsa | Gerenciável com transparência e design; benefícios superam riscos |
| Impacto social | Pode corroer relações humanas; normaliza exploração | Pode ampliar acesso a companhia, terapia e sexualidade segura |
| Regulação necessária | Sim; normas e limites éticos | Preferem inovação guiada por princípios, não proibições rígidas |
| Existência de robôs sexuais | Inaceitável; reforça objetificação | Alguns defendem como escolha adulta e mercado regulado |
Fontes: a) https://www.technologyreview.com/2025/10/28/1126781/we-will-never-build-a-sex-robot-says-mustafa-suleyman b) https://mittechreview.com.br/microsoft-ia-mustafa-suleyman-seemingly-conscious-ai-entrevista/ c) https://www.infobae.com/tecno/2025/10/29/jamas-construiremos-un-robot-sexual-afirmo-el-director-ejecutivo-de-microsoft-ai/
Esse debate não é só técnico, mas também moral, social e político. Suleyman propõe prudência e limites claros, enquanto outros pedem uma regulamentação que permita inovação responsável. A escolha entre frear pesquisas que simulam consciência ou permitir avanços, com salvaguardas, exige diálogo público, padrões internacionais e fiscalização.
No contexto, empresas e reguladores precisam decidir se preferem proibir, regular estritamente ou permitir com transparência, Isso porque cada um desses caminhos trará diferente forma de conflito entre benefícios e riscos, realidade com a qual o mundo (ou seja, a sociedade global) terá de enfrentar, coletivamente.
Finalizando, obviamente temos a pergunta central: Quem decidirá qual o limite ideal?
De um lado, temos a Microsoft, de Suleyman, tentando criar uma “arquitetura com limites”, moldando seu robô como aquela pessoa que é colega de trabalho, muito profissional, educado e colaborador, mas que não fará sexo com você.
Do outro lado, temos um mercado voraz e libertário, com empresas dispostas a darem ao público exatamente a fantasia que ele deseja, no nível na forma que ele busca ter. E não há dúvidas de que a tecnologia será capaz de preencher qualquer vácuo existente.
Enquanto Suleyman garante que a Microsoft “nunca construirá robôs sexuais”, isso não impede que outras empresas sigam em direção contrária e inundem o mercado com os mais diferentes modelos.
A questão que fica para nós, usuários e reles mortais, é se queremos uma tecnologia que nos confronte e nos empurre de volta para a realidade (como faz o recurso Real Talk). Ou se queremos o conforto sedutor de uma máquina que foi programada para “amar e adorar”.
A escolha de acreditar na doce ilusão ou enxergar o código por detrás dela, no entanto, ainda é do livre arbítrio de cada um de nós, como escrevi antes, reles mortais.
Eu sou Mario Divo e acompanhe-me pelas mídias sociais ou pelo site www.mariodivo.com.br.
Gostou do artigo?
Quer saber mais sobre como a inteligência artificial consciente pode afetar nossas escolhas e relações no futuro? Então entre em contato comigo. Terei o maior prazer em responder.
Até nossa próxima postagem!
Mario Divo
https://www.mariodivo.com.br
Confira também: Como Ver Além de Sua Própria Perspectiva e Encontrar a Verdade


Participe da Conversa