Com as IAs em alta, é bom ter algumas dicas de como utilizá-las do melhor jeito

Ao longo dos últimos meses as IAs (inteligências artificiais) se tornaram alvo de obsessão de diversas pessoas. Muitas ferramentas se destacaram, mas não há como negar que o ChatGPT se tornou uma das mais utilizadas e isso levanta uma discussão: como usar a IA de forma responsável?

O chatbot da OpenAI é útil para diversas pessoas e profissões, e já foi assunto de alguns podcasts aqui no Jovem Nerd. Mas, como toda novidade, é importante questionar a segurança da ferramenta, seus riscos e, principalmente, falar sobre o uso responsável do instrumento.

O ChatGPT é seguro?

Imagem ilustrativa do ChatGPT
Open AI tem várias ferramentas de segurança no ChatGPT, mas é preciso ficar alerta com as informações colocadas na ferramenta (Divulgação)

Essa é uma pergunta já feita para os próprios desenvolvedores da ferramenta. O responsável pela Segurança e Confiança da OpenAIDave Wilner, disse: “em uma sociedade onde o acesso a ferramentas de IA generativas se tornaram tão essenciais quanto o acesso a internet, temos a obrigação de balancear a mitigação de riscos sérios enquanto permitimos os valores diversos florescer.”

Colocando tais conceitos em prática, a organização tomou algumas medidas para garantir o uso seguro da ferramenta. São elas:

  • Criptografia: as conversas com o chatbot são criptografadas usando a tecnologia end-to-end e isso evita que terceiros acessem as conversas indevidamente;
  • Auditoria externa: a API da OpenAI passa por auditoria externa de uma organização imparcial para verificar e apontar falhas de segurança na IA que podem ser usadas para fins negativos;
  • Programa de Recompensas de Bugs: especialistas em segurança, hackers éticos e outros entusiastas por tecnologia podem participar do programa para testar e descobrir problemas que prejudiquem a plataforma e usuários. O programa premia financeiramente quem descobrir falhas na plataforma;
  • Parceria com a Universidade Cornwell: os pesquisadores da OpenAI trabalharam em conjunto com cientistas da Universidade Cornwell para investigar como alguns modelos de linguagem podem ser utilizados para a desinformação. O objetivo é mitigar a geração e disseminação de conteúdos enviesados e falsos.

Como toda ferramenta ou rede social, o ChatGPT indica questões proibidas através das políticas de uso – acesse-as aqui – para trabalhar em conjunto com os usuários e diminuir a criação de conteúdo nocivo, como malware ou geração de discurso de ódio, por exemplo.

Riscos envolvendo a IA

Imagem ilustrativa do ChatGPT
Por utilizar linguagem quase humana, o ChatGPT pode ser usado para gerar mensagens falsas (Divulgação)

A OpenAI melhora a sua ferramenta constantemente, através de atualizações, mas, mesmo assim, ainda existem riscos. A inteligência artificial gera resultados baseados no banco de dados que possui, entretanto, esses resultados podem ser manipulados pelo usuário externamente.

Além disso, é possível utilizar a plataforma como meio de gerar mensagens falsas ou para aplicar golpes em outras pessoas. Por se tratar de uma ferramenta que imita um ser humano, pode ser difícil identificar que as mensagens foram criadas por uma inteligência artificial. Portanto, os riscos do ChatGPT estão mais ligados aos objetivos do usuário do que necessariamente uma falha da plataforma.

Todavia, existe um ponto de atenção: o próprio sistema alerta que, por se tratar de uma ferramenta ainda em pesquisa, algumas conversas com o bot podem gerar diálogos ofensivos ou informações erradas ou enviesadas — é necessário atenção e revisão das respostas geradas pelo ChatGPT.

Uso responsável do ChatGPT

Imagem ilustrativa do ChatGPT
Entender o ChatGPT como ferramenta é o primeiro passo para um uso responsável (Divulgação)

Chegamos na pergunta de um milhão de reais: como usar o ChatGPT de forma responsável? Primeiro, é importante ter ciência de que está conversando com uma inteligência artificial, não um humano. Pode parecer lógico, mas ter isso em mente ajuda o usuário a estar mais consciente dos resultados gerados e assegurar o uso ponderado da ferramenta.

É altamente recomendado que o usuário não compartilhe informações pessoais, tampouco de terceiros. O ChatGPT é seguro, mas os dados e conversas dos usuários com o bot podem ser utilizados para melhorar a plataforma. Vale ressaltar que o uso das conversas é apenas para aprendizado de máquina e a organização garante que nenhuma informação é repassada para fora da plataforma. Ainda assim, não custa nada ter cautela com dados mais sensíveis.

Outra forma de usar a ferramenta de forma responsável é utilizá-la justamente para o que ela é: uma ferramenta de auxílio. Pedir para o bot verificar possíveis erros de ortografia em um texto é uma forma saudável de utilização, por exemplo, além de ser capaz de resumir rapidamente um artigo. Neste sentido, existem extensões que podem facilitar o dia a dia pessoal e profissional.

No entanto, o ChatGPT não deve ser utilizado como ferramenta para escrever um artigo científico ou texto informativo, por exemplo. O sistema não informa de onde as informações foram retiradas, tornando impossível a comprovação dos fatos ou que não houve plágio.

Ao abrir o ChatGPT, fica claro que ele é uma ferramenta que promove insights sobre diversos temas, auxilia na correção de textos ou códigos de programação e faz isso de forma humanizada, realista e extremamente rápida.

Muitas ações são feitas pela OpenAI para garantir um ambiente seguro para que as pessoas possam se beneficiar do uso de sua ferramenta, entretanto é importante que o usuário fique atento às mudanças de segurança e política da plataforma, além de utilizar a ferramenta sem a intenção de prejudicar terceiros.

No fim do dia, entender como a plataforma funciona, o que você deve ou não fazer e como garantir a sua segurança são as principais formas de utilizar o ChatGPT de forma responsável.

De: Redação / Fonte: Jovemnerd

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui