terça-feira , 30 abril 2024
Ínicio Noticias O outro lado da Inteligência Artificial: 4 dicas para se proteger dos perigos das deepfakes
NoticiasTecnologia

O outro lado da Inteligência Artificial: 4 dicas para se proteger dos perigos das deepfakes

40

À medida que a inteligência artificial se torna cada vez mais integrada ao cotidiano, é crucial reconhecer não apenas seus benefícios, mas também os riscos que ela apresenta. Casos recentes de deepfakes, em particular, ressaltam os perigos potenciais. Desde o uso para criar imagens e vídeos extremamente realistas de pessoas inexistentes até a simulação de identidades de indivíduos reais, os riscos são reais e impactantes. Da perda de milhões em transações financeiras fraudulentas à difamação pública de figuras proeminentes, as consequências são alarmantes.

Linguagens Tech: Como escolher a melhor para o negócio?

Exemplos destes casos envolvem a situação de um diretor financeiro de uma multinacional chinesa que perdeu US$ 26 milhões(o equivalente a R$ 129 milhões) – após participar de uma reunião online e acreditar que estava falando com outros colaboradores da empresa. Só que mais ninguém estava ali de verdade, e ele foi convencido por bandidos a fazer um depósito milionário.

Outro caso relevante é o da cantora Taylor Swift, que tem tido sua imagem vinculada a conteúdos pornográficos na internet, também por meio do deepfake. O cenário é tão preocupante que já está causando mudanças na legislação americana; no Missouri, o “Taylor Swift Act” surgiu justamente devido às  ocorrências envolvendo a cantora.

Andréa Migliori, CEO da Workhub, uma HRTech pioneira na incorporação de IA aos seus serviços, destaca a importância de estar alerta e tomar medidas proativas para se proteger contra tais ameaças e traz quatro dicas:

  1. Crie palavras de segurança

Estabeleça códigos com amigos e familiares para verificar a autenticidade de comunicações suspeitas. “Evite armazenar essas palavras em dispositivos vulneráveis e, em vez disso, memorize-as para garantir sua segurança”, ressalta Andréa.

  1. Faça perguntas

Não aceite informações suspeitas sem questionamento. “Solicite respostas detalhadas e específicas para confirmar a legitimidade das comunicações. A pressão por respostas pode dissuadir os golpistas em potencial”, explica a CEO.

  1. Busque confirmação externa

Andréa recomenda “sempre confirmar informações com fontes externas, especialmente em situações críticas”. Não tome decisões precipitadas e solicite verificações adicionais com indivíduos não envolvidos na interação original.

  1. Aprenda Sobre IA

Esteja atualizado sobre os avanços e riscos associados à IA, como deepfakes. Reconhecer sinais de manipulação, como traços comuns de linguagem em textos gerados por IA, pode ajudar a identificar tentativas de fraude.

Payface apresenta inovação para a indústria de pagamentos durante a Autocom 2024

“A tecnologia está moldando nosso mundo de maneiras inimagináveis, mas devemos permanecer vigilantes contra seus potenciais abusos. Embora os benefícios da IA sejam inegáveis, é essencial reconhecer os perigos e tomar medidas proativas para mitigar esses riscos”, finaliza a especialista.

Compartilhar

Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.

Conteúdo Relacionado

Regulação IA no Brasil: relatório apresenta linha de proposta semelhante ao da União Europeia e EUA

Na última quarta-feira (24), o relator da Comissão Temporária Interna sobre Inteligência...

Como se posicionar no mercado da tecnologia da informação de maneira estratégica?

A Tecnologia da Informação (TI) está em constante evolução e cada vez...

Inscrições para campeonato global de robótica que acontece no Brasil estão abertas; saiba como participar

As inscrições para participar do World Robot Olympiad (WRO), um dos maiores...

Conteúdo é tudo para ter sucesso no YouTube?

 O YouTube se tornou muito mais do que apenas uma plataforma de...