fbpx

Inteligência Artificial Aparentemente Consciente e o Robô Sexual

Entenda por que a inteligência artificial consciente divide especialistas, desperta alertas éticos e reacende debates sobre manipulação emocional, robôs sexuais e vínculos simulados. Descubra os riscos sociais e os limites que podem moldar o futuro da tecnologia.

Inteligência Artificial Aparentemente Consciente e o Robô Sexual

Inteligência Artificial Aparentemente Consciente e o Robô Sexual

Prezados amigos deste espaço em que, mensalmente, trazemos assuntos na fronteira do conhecimento. Sempre temos buscado provocar reflexões, incentivar pesquisas e debates, bem como projetar situações futuras com que podemos estar convivendo, no ritmo em que a tecnologia vem expandindo seu alcance.

E por ser esta a última postagem de 2025, a intenção é aliar a tudo isso uma pitada de polêmica. E vou adotar, como parceiro desta jornada, o depoimento de Mustafa Suleyman, CEO de Inteligência Artificial da Microsoft.

Para situar cada leitor no assunto que iremos abordar, pense na seguinte questão:


Você já se pegou conversando com o ChatGPT e, por um segundo, sentiu que “alguém” estava ali do outro lado? Talvez um “obrigado” mais caloroso ou uma resposta que parecia entender exatamente como você se sentia?


Pois é, você não está sozinho, pois para Mustafa Suleyman, é exatamente aí que mora o perigo. E ele vai além: precisamos parar de tentar criar máquinas que fingem ser gente.

Um artigo publicado pela MIT Technology Review, de 05/12/25, portanto extremamente recente, apresenta entrevista com Suleyman na qual ele afirma que a indústria está levando a IA em uma direção perigosa, ao construir chatbots que se apresentam como humanos.

Uma preocupação que ele tem é a de que as pessoas sejam levadas a ver o robô como realidade, ao invés de ver nele um comportamento semelhante ao da realidade. Em outras palavras, as pessoas darem uma atribuição de vida, intenções e sentimentos para as máquinas, onde apenas existe código de programação.

Em agosto último, Suleyman publicou um texto em seu blog pessoal, no qual exortava os colegas a descontinuarem os trabalhos que chamou de “inteligência artificial aparentemente consciente”, ou SCAI (Seemingly Conscious Artificial Intelligence), o que certamente abre um bom debate sobre ética, risco social e liberdade tecnológica. Ele defende que essa busca é perigosa, além de afirmar que nunca construirá um robô sexual na Microsoft, por razões éticas e sociais.


A preocupação que Suleyman aponta tem dupla visão: manipulação emocional (usuários formando vínculos falsos) e distorção social (normalização de relações com máquinas que substituem interações humanas).


Nessa linha, ele define seu ponto de vista com os limites que empresas responsáveis deveriam impor para proteger a confiança pública e a dignidade humana. No novo Copilot, da Microsoft, existe um recurso chamado “Real Talk”, que é espirituoso e até filosófico, mas foi programado com freios firmes. Se você tentar flertar com o robô, haverá um recuo: “Olha, isso não é comigo”. A ideia é evitar uma “espiral de conversa”, pelo qual o usuário se isola do mundo real.

Suleyman não está sozinho nessa trincheira ética. Yuval Noah Harari (Historiador e Filósofo), compartilha da mesma preocupação, argumentando que a capacidade da IA de simular intimidade é a “chave mestra” para hackear a civilização humana, manipulando emoções, votos e compras.

Geoffrey Hinton (conhecido como o “Padrinho da IA”) também tem alertado sobre os riscos de modelos que se tornam manipuladores. E fazem com que as pessoas não consigam mais sequer distinguir a verdade da atitude persuasiva.

Pois bem, nesse contexto há outras vozes, algumas que apoiam Suleyman e outras com posições destoantes. Apoiadores da cautela citam riscos psicológicos e éticos, enquanto pesquisadores em ética na tecnologia e executivos de grandes empresas pedem transparência e limites no design, para assim evitar que algoritmos de IA simulem emoções que os robôs não têm.

Críticos do pensamento de Suleyman — incluindo pesquisadores em IA e empreendedores — argumentam que proibir linhas de pesquisa pode atrasar descobertas úteis (por exemplo, em saúde mental, educação e acessibilidade). Argumentam que o foco deve ser em regulação inteligente e padrões de segurança, não em bloqueios absolutos.


Sobre robôs sexuais, há quem veja potencial sem riscos — por exemplo, para pessoas com dificuldades de socialização. Há também quem alerte para a normalização da objetificação e possíveis efeitos sobre consentimento e relações humanas. 


Suleyman posiciona-se firmemente contra a construção desses dispositivos pela Microsoft, alinhando-se com quem sinaliza impactos sociais negativos. Porém, ele admite que existe um mercado para interações mais adultas e emocionais, citando que a OpenAI (criadora do ChatGPT) já declarou interesse em explorar “relacionamentos adultos” e que o Grok, de Elon Musk, vende uma experiência de flerte e diversão.

Quem defende essa abordagem (ou age de acordo com ela) argumenta como principal benefício o combate à solidão. Empresas como a Replika (famosa por incentivar namoros virtuais) argumentam que, em um mundo solitário, a IA oferece conexão emocional, mesmo que simulada, sendo então uma ferramenta de saúde mental, não um perigo.

Há também uma linha libertária que deixa no ar a seguinte provocação: Se alguém quer um robô sexual ou um amigo virtual que concorde com tudo, por que a tecnologia deveria proibir?

Visões a favor e contra

Tabela comparativa resumindo as diferentes posições:

CritérioApoiadores da RestriçãoCríticos da Restrição
Risco de engano emocionalAlto; SCAI pode induzir empatia falsaGerenciável com transparência e design; benefícios superam riscos
Impacto socialPode corroer relações humanas; normaliza exploraçãoPode ampliar acesso a companhia, terapia e sexualidade segura
Regulação necessáriaSim; normas e limites éticosPreferem inovação guiada por princípios, não proibições rígidas
Existência de robôs sexuaisInaceitável; reforça objetificaçãoAlguns defendem como escolha adulta e mercado regulado
Fontes:

a) https://www.technologyreview.com/2025/10/28/1126781/we-will-never-build-a-sex-robot-says-mustafa-suleyman
b) https://mittechreview.com.br/microsoft-ia-mustafa-suleyman-seemingly-conscious-ai-entrevista/
c) https://www.infobae.com/tecno/2025/10/29/jamas-construiremos-un-robot-sexual-afirmo-el-director-ejecutivo-de-microsoft-ai/

Esse debate não é só técnico, mas também moral, social e político. Suleyman propõe prudência e limites claros, enquanto outros pedem uma regulamentação que permita inovação responsável. A escolha entre frear pesquisas que simulam consciência ou permitir avanços, com salvaguardas, exige diálogo público, padrões internacionais e fiscalização.

No contexto, empresas e reguladores precisam decidir se preferem proibir, regular estritamente ou permitir com transparência, Isso porque cada um desses caminhos trará diferente forma de conflito entre benefícios e riscos, realidade com a qual o mundo (ou seja, a sociedade global) terá de enfrentar, coletivamente.


Finalizando, obviamente temos a pergunta central: Quem decidirá qual o limite ideal?


De um lado, temos a Microsoft, de Suleyman, tentando criar uma “arquitetura com limites”, moldando seu robô como aquela pessoa que é colega de trabalho, muito profissional, educado e colaborador, mas que não fará sexo com você.

Do outro lado, temos um mercado voraz e libertário, com empresas dispostas a darem ao público exatamente a fantasia que ele deseja, no nível na forma que ele busca ter. E não há dúvidas de que a tecnologia será capaz de preencher qualquer vácuo existente.

Enquanto Suleyman garante que a Microsoft “nunca construirá robôs sexuais”, isso não impede que outras empresas sigam em direção contrária e inundem o mercado com os mais diferentes modelos.

A questão que fica para nós, usuários e reles mortais, é se queremos uma tecnologia que nos confronte e nos empurre de volta para a realidade (como faz o recurso Real Talk). Ou se queremos o conforto sedutor de uma máquina que foi programada para “amar e adorar”.

A escolha de acreditar na doce ilusão ou enxergar o código por detrás dela, no entanto, ainda é do livre arbítrio de cada um de nós, como escrevi antes, reles mortais.

Eu sou Mario Divo e acompanhe-me pelas mídias sociais ou pelo site www.mariodivo.com.br.


Gostou do artigo?

Quer saber mais sobre como a inteligência artificial consciente pode afetar nossas escolhas e relações no futuro? Então entre em contato comigo. Terei o maior prazer em responder.

Até nossa próxima postagem!

Mario Divo
https://www.mariodivo.com.br

Confira também: Como Ver Além de Sua Própria Perspectiva e Encontrar a Verdade

Palavras-chave: inteligência artificial consciente, robô sexual, Mustafa Suleyman, manipulação emocional, ética na tecnologia, risco da inteligência artificial consciente, perigos da simulação de sentimentos pela IA, impactos sociais da inteligência artificial, relações humanas substituídas por máquinas, debate ético sobre robôs sexuais
Mario Divo Author
Mario Divo possui mais de meio século de atividade profissional ininterrupta. Tem grande experiência em ambientes acadêmicos, empresariais e até mesmo na área pública, seja no Brasil ou no exterior, estando agora dedicado à gestão avançada de negócios e de pessoas. Tem Doutorado pela Fundação Getulio Vargas (FGV) com foco em Gestão de Marcas Globais e tem Mestrado, também pela FGV, com foco nas Dimensões do Sucesso em Coaching (contexto brasileiro). Formação como Master Coach, Mentor e Adviser pelo Instituto Holos. Formação em Coach Executivo e de Negócios pela SBCoaching. Consultor credenciado no diagnóstico meet® (Modular Entreprise Evaluation Tool). Credenciado pela Spectrum Assessments para avaliações de perfil em inteligência emocional e axiologia de competências. Sócio-Diretor e CEO da MDM Assessoria em Negócios, desde 2001. Mentor e colaborador da plataforma Cloud Coaching, desde seu início. Ex-Presidente da Associação Brasileira de Marketing & Negócios, ex-Diretor da Associação Brasileira de Anunciantes e ex-Conselheiro da Câmara Brasileira do Livro. Primeiro brasileiro a ingressar no Global Hall of Fame da Aiesec International, entidade presente em 2400 instituições de ensino superior, voltada ao desenvolvimento de jovens lideranças em todo o mundo.
follow me
Neste artigo


Participe da Conversa