O ex-Google Mo Gawdat, que liderou a divisão de inteligência artificial (IA) da empresa de Mountain View, se diz assustado com o que ela vem criando na área, tecendo críticas abertas à companhia em entrevista publicada pelo site The Times.

Gawdat conta que, durante seu trabalho no Google, teve uma revelação assustadora: a empresa estava desenvolvendo um sistema que permitia a braços robóticos encontrarem e agarrarem uma pequena bola. Diz ele que, ao longo do progresso da pesquisa, um dos braços não só agarrou a bolinha, mas também a segurou, dando a entender que estava “se exibindo” para seus criadores.

 

Mo Gawdat, ex-Google, que acredita que a inteligência artificial pode acabar se voltando contra a humanidade
Mo Gawdat, ex-líder da divisão de inteligência artificial do Google, teme um cenário onde a IA pode “aprender demais” e se voltar contra a humanidade (Imagem: Acervo pessoal/Reprodução)

A entrevista não deixa claro se a ação do braço foi autônoma ou se estava, de alguma forma, inserida em sua capacidade de aprendizado (a descrição geral fala em “identificar, localizar e agarrar”, e as ações teoricamente param por aí).

“Foi aí que percebi o quão assustador isso é”, disse Gawdat, que deixou a empresa em 2017, após a morte de seu filho de 21 anos durante uma cirurgia de rotina. Ele, hoje, responde como empreendedor digital e autor do livro “A Fórmula da Felicidade” (Editora Leya), onde conta a experiência de lidar com a perda.

De acordo com a entrevista, Gawdat acredita que estamos cada vez mais perto de uma “inteligência artificial geral” – o tipo de IA capaz de aprender tudo, e aplicar esse conhecimento de forma a ameaçar a humanidade se assim julgar necessário. Você se lembra do meme “estamos criando a SkyNet”, em referência à IA da franquia de filmes “O Exterminador do Futuro”? Gawdat está se referindo à ela.

“A realidade dos fatos é: nós estamos criando Deus”, ele disse.

Já não é de hoje que personalidades exemplares do setor tecnológico pedem por maiores cuidados nas pesquisas envolvendo a inteligência artificial: Elon Musk, fundador da SpaceX (e da Tesla, e da Boring Company, e da Neuralink…) já disse que, sem as devidas restrições e regulamentações, corremos o risco de sermos conquistados por algum tipo de IA rebelde.

Essas pinceladas generalizadas, porém, ignoram certos problemas que já existem nas tecnologias que já criamos: a Amazon, por exemplo, desenvolveu o sistema Rekognition de reconhecimento facial, oferecendo-o para testes às mãos de autoridades policiais nos EUA. A tecnologia em si acabou paralisada após relatos de que ela trazia viés racista, gerando identificações erradas em pessoas negras por falta de “calibragem” correta.

Esse problema – e diversos outros – já foram citados pela Microsoft, que corriqueiramente pede que as autoridades governamentais de diversos países criem regulamentações e restrições mais firmes na pesquisa e desenvolvimento da IA.

Em outros casos, desenvolvedores independentes já usaram algoritmos preditivos – um braço do machine learning – para criar “falsos nudes” e deepfakes de mulheres na internet – anônimas e celebridades – com graus assustadores de realismo.

Há também as boas práticas, como um museu na Flórida dedicado ao pintor surrealista Salvador Dalí: visitantes do local interagem “diretamente” com o pintor, que os acompanha durante a demonstração e tece comentários sobre as próprias obras. Ou então biólogos que estão usando algoritmos para prever quais doenças de origem animal podem infectar humanos, e acelerar pesquisas para curas e tratamentos.

É fato que há pouca regulamentação no campo da inteligência artificial hoje, e talvez você até compartilhe do medo do ex-Google, de que a empresa está, em essência, “criando Deus”. Entretanto, os medos mais racionais têm solução firmada em fatos, e podem ser atacados e resolvidos com um pouco de esforço.

Fonte: Olhar digital

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui