fbpx

Inteligência Artificial: em busca do equilíbrio entre benefícios, riscos e responsabilidades

Nas últimas semanas um dos assuntos mais discutidos na Internet são os riscos e perigos que corremos com o desenvolvimento da IA. Mas há benefícios. Muitos. Seria possível fazer isso com responsabilidade?

Inteligência Artificial: em busca do equilíbrio entre benefícios, riscos e responsabilidades

Inteligência Artificial: em busca do equilíbrio entre benefícios, riscos e responsabilidades

Nas últimas semanas um dos assuntos mais discutidos na Internet são os riscos e perigos que corremos com o desenvolvimento da IA. Mas a Inteligência Artificial tem benefícios. Muitos. Seria possível fazer isso com responsabilidade?

Há alguns dias a demissão voluntária de Geoffrey Hinton, psicólogo cognitivo e cientista da computação da Google, criou alvoroço nas redes. Considerado o “padrinho da IA”, ele disse em entrevistas ao The New York Times e à BBC, que se arrepende de seu trabalho e que alguns perigos são bastante assustadores.

Já Elon Musk, dono de várias empresas, incluindo o Twiter, disse que a IA, teria “o potencial de destruir a civilização”. Isso, depois de criar uma empresa para desenvolver sua própria IA, segundo ele TruthGPT, em busca da verdade absoluta. Lembrando que também assinou a carta aberta junto com especialistas, pedindo uma pausa no desenvolvimento da IA.  Aliás, ele foi um dos criadores da OpenAI e deixou a sociedade após desentendimentos.

Ao mesmo tempo, diariamente, vejo manchetes alertando para os riscos: “você pode perder seu emprego para um robô”, “vamos dominar a IA antes que nos domine” ou ainda “conheça os perigos da IA”, “5 riscos que você pode correr com a IA”, e por aí afora.

A sensação é a de que acordamos ou nos tornamos conscientes de repente. Como se não soubéssemos que as grandes tecnologias e a IA vêm entrando em nossas vidas gradativamente, através de serviços que usamos no dia a dia: da pesquisa do Google à previsão do tempo, aplicativos de trânsito, reconhecimento de fala, recomendação de produtos, centenas de aplicações das quais nem nos damos conta. Siri, Alexa, Google, Amazon, Netflix. Fonte de comodidade e diversão, certo?

Sem contar os inúmeros usos em dezenas de áreas sobre as quais nem pensamos, como finanças, meio ambiente, guerra, armas nucleares, agricultura, saúde – e o que vem pela frente em termos de avanço, pode melhorar muito a vida se usado em responsabilidade.

Mas há riscos?

Claro que há! Há risco em atravessar a rua. Mais ainda quando as informações que temos sobre a rua, o tráfego, o ambiente, as variáveis, são escassos. Às vezes sequer temos um mapa para saber onde a rua vai dar – vai que estamos sem celular!

Na civilização, por suposto, nunca tivemos mapa do futuro – ou muitas tragédias teriam sido evitadas.

O próprio Geoffrey Hinton disse à BBC (leia a matéria) que os sistemas digitais têm muitas cópias que “podem aprender separadamente, mas compartilham seu conhecimento instantaneamente”, como se, tendo 10 mil pessoas, “cada vez que uma delas aprendesse algo, todas automaticamente aprenderiam”, tornando possível saber mais que todos.

Entre as preocupações dos especialistas que assinaram a carta (leia a íntegra) estão a incerteza quanto ao processo de decisão de um sistema de IA; a possibilidade de uso malicioso em ataques cibernéticos ou com armas; informações ou propagandas falsas nas redes; resumindo, o receio de perder o controle sobre a criação.

Louvável e justificável, acredito, mesmo com meu pouco conhecimento em tecnologia. Mas eles mesmos trazem propostas de soluções, sugerindo o planejamento e gerenciamento no desenvolvimento da IA com legislação, controle, multas, punições, etc. Muito bom. Mas é viável? Tem que ser, mas com certeza não será absoluto. Como não é com armas nucleares.

IA às claras ou no escuro?

Sou leiga em tecnologia, mas não sou ingênua a ponto de acreditar que, neste exato momento, dezenas de empresas e governos não estão trabalhando intensamente no desenvolvimento da IA, com ou sem legislação. O que torna o assunto muito mais perigoso.

No mundo do Deepmind, da Deepweb, o lado escuro da força trabalha incansavelmente criando armas, formas, fakes, ataques e tal, para destruir a paz e dominar o mundo com suas ideias. Não sei quanto a você, mas eu prefiro que a Inteligência Artificial seja desenvolvida na claridade, não na escuridão, para que saibamos o que está acontecendo.

De fato, uma das preocupações de Geoffrey Hinton é a de que “pessoas mal-intencionadas” – e cita o presidente Putin – tentariam usar a IA para “coisas ruins”. Putin diz que quem liderar a IA, governará o mundo. Já Musk compara os perigos às ameaças da Coreia do Norte, ao mesmo tempo em que quer criar um sistema de verdade absoluta. Oras, pois! Minha opinião é que as mentes brilhantes não se resumem a um lado do mundo. Aliás…

Ficção x Realidade

Lembro-me de, pequena ainda, ficar encantada e abismada com os livros de Isaac Asimov, onde humanos e robôs conviviam sob As Três Leis da Robótica: não ferir um ser humano nem permitir que sofra; obedecer às ordens desde que não conflitem com a primeira lei; proteger sua existência desde que não contrariem as duas leis anteriores.

E a ficção tem povoado nossas mentes desde então, explorada ao máximo, através de livros e filmes. Hoje fica difícil definir a fronteira. O que vemos são possíveis verdades, já mapeadas por estudos, e especulações. Informar-se é a melhor opção para diminuir o medo. De quê?

Do desconhecido – não entender como funciona é, de fato, preocupante

Da substituição nos empregos – com certeza, muitas funções mecânicas, e mesmo outras mais intelectuais, serão desempenhadas pela IA

Do Controle – pode se tornar tão avançada que escape ao controle? Ninguém sabe. Quando Hitler, na década de 20, começou a fortalecer sua influência e alimentar o ódio contra os judeus, dezenas de países viram. Mas não fizeram nada em tempo.

Do viés preconceituoso – como a base da IA são dados históricos, há o receio de a discriminação seja ampliada. Já estamos no limite, certo?

Da manipulação social – Donald Trump que o diga, já que o resultado das eleições norte-americanas é questionado até hoje. Goebbels, ministro da propaganda de Hitler, fazia isso sem IA.

Da invasão de privacidade – dados, câmeras, rastreamento, reconhecimento facial por exemplo, já são usados hoje e dão uma sensação de segurança. Falsa?

De fato, tudo parece real e discutível e respostas certas não existem. Inteligente é procurar fontes de informação que não sejam alarmistas nem fechem os olhos. Realistas é melhor. Um artigo equilibrado, sem sensacionalismo nem falsa moralidade, mas de visão realista, está na Revista Veja (leia o artigo).

O problema é O Homem, cara pálida!

Não tenho visão técnica. Minha visão é humanista. Apenas interajo, observo e aprendo, inclusive com a história.

Em 1905 Einstein mostrou, com a equação E = mc², que uma quantidade pequena de massa pode ser convertida em grande quantidade de energia. No final da década de 30 a fissão nuclear foi descoberta e o primeiro reator construído em 42. Ele alertou para os riscos catastróficos da bomba atômica e, mesmo assim, Nagasaki e Hiroshima foram destruídas com a diferença de 3 dias – bastou um homem dar a ordem e outro apertar o botão para destruir mais de 200 mil vidas direta e indiretamente. Foi a bomba?

A perspectiva do Apocalipse existe desde que o homem foi criado. Em uma estimativa grosseira e passageira, somos mais de 8 milhões de espécies animais, por volta de 300 mil espécies vegetais e uma infinidade no mundo mineral. Uma única espécie – o homem – pode acabar com todas as outras.

Desde Platão, as sombras que se refletem na caverna nos amedrontam – nossa percepção é imperfeita, limitada, e as sombras são apenas uma representação distorcida da realidade.

Até alguns meses comemorávamos o metaverso. Eba! Vamos todos viver no metaverso! Os plantonistas criaram marcas, objetos virtuais, life style: você poderia viver em qualquer lugar desde que pudesse comprar – virtualmente, claro! De repente…. puf…. o metaverso saiu da mídia. Só como lembrança, o metaverso é fruto da IA.

Em uma viagem futurista perguntam-me o que acho se um humano se apaixonar pela máquina, como no filme de ficção Ela, de 2013, com Joaquin Phoenix. Em uma visão psicanalítica a questão será o sujeito, não a máquina: por que diabos se apaixonou por uma máquina?

Parece-me que estamos substituindo o sujeito pelo objeto. Ou querendo transformar o objeto em sujeito.

Escrevo. A IA pode me substituir?

Pode. Mas não cometerá meus erros e acertos. Atendo. A IA pode me substituir. Até pode. Mas não com os meus afetos.

A IA nunca será como sou. Com meus erros, acertos, vulnerabilidades, paixões, e tudo isso que me faz ser. Ser Humano.

Gostou do artigo? Quer saber mais sobre a busca do equilíbrio entre benefícios, riscos e responsabilidades da Inteligência Artificial? Então, entre em contato comigo. Terei o maior prazer em falar a respeito.

Isabel C Franchon
https://www.q3agencia.com.br

Confira também: Inteligência Artificial: o que você precisa saber para se adaptar

Palavras-chave: benefícios da inteligência artificial, quais os benefícios da inteligência artificial, riscos da inteligência artificial, quais os riscos da inteligência artificial, perigos da inteligência artificial, quais os perigos da inteligência artificial

 

Isabel C Franchon, Coach desde 2008, atua com o Desenvolvimento Profissional e Pessoal voltados para a Carreira, Competências, Liderança, Comunicação Interpessoal, Compliance & Ética e Coaching de Times. Facilita Workshops, Treinamentos e Oficinas em empresas de médio/grande porte através de empresa própria e em parceria com Consultorias de DH. Graduada em Jornalismo, tem MBA em Desenvolvimento Humano de Gestores, pela FGV; Pós-graduação em Transdisciplinaridade em Saúde, Educação e Liderança, pela Universidade Holística Internacional; Especialização em Marketing pela MM School; Formação em Compliance Anticorrupção, pela LEC; Especialização em Metodologia QEMP para empreendedores, pela Clinton Education. Fez formação em Master, Executive, Leader & Business Coach, pelo Behavioral Institute. Certificada em Positive Coaching Com Robert Dilts e Richard Moss. É membro do International Coaching Council (ICC) desde 2008.
follow me
Neste artigo


Participe da Conversa