Desde
as eleições de 2018, em todo o mundo, a produção de fake news, deepfake, material
desinfomativo, pós verdade, microtargeting
e mentiras viraram ferramentas no ringue eleitoral, sem regras e sem punições. E quando acontecem, o mal já está feito.
A
tecnologia se desvirtuou ao ser usada para criminalizar
a política, destruir reputações e contestar verdades científicas e históricas sem qualquer embasamento.
O
avanço da INTELIGÊNCIA ARTIFICIAL e
sua capacidade de disseminar de forma eficaz, permite assertividade quanto ao público-alvo,
momento, canal e forma. Ela é capaz de prever decisões, comportamentos e
necessidades antes de você perceber a manipulação.
Não
podemos parar o progresso e a inovação, mas seu desenvolvimento
precisa de regras. O cuidado com seus avanços diminui o risco de perda de privacidade, controle, vigilância e dependência.
Os monopólios, como Meta e
Microsoft, mostram os riscos à liberdade individual e à democracia, sabem tudo
de todos. Assim como as redes satelitais privadas e independentes de Elon Musk
que já cobrem quase o mundo inteiro.
A
OpenAI é um exemplo claro. Pensada, no início dos anos 90 como non-profit, focada em negócios, saúde e
educação, em 1995, alterou seu perfil diante de um potencial econômico,
financeiro e político que não permite consciência ou ética, é tudo pelo dinheiro.
IA deveria
ser um banco de dados com espaços de
debates, diálogo e encaminhamento de soluções. Infelizmente, é muito usada para
impor uma visão de mundo, muitas vezes, alienista, retrógrada e perigosa.
Paradoxalmente, usam a tecnologia para nos manter nas trevas.
A
Ordem
Executiva de Joe Biden, presidente dos EUA, é um ponto de partida para a discussão sensata, madura, consciente e
democrática. A demissão de Sam Altman, CEO da OpenAI também se insere nesse
contexto.
As
big techs querem controlar startups
que podem abalar seu domínio num mercado que manipula consciências, cria
desejos e fomenta sentimentos. É um negócio que exige muitos recursos, viável só
com oligopólios, como a telefonia e
serviços públicos essenciais.
A grande
questão do uso de IA na política é o limite entre convencer ou persuadir.
Você pode achar que é uma pequena questão semântica, mas o resultado pode ser
um risco à sociedade.
Persuadir é
a manipulação de decisões
individuais de voto antes da eleição por meio de campanhas de desinformação
direcionada. Seu candidato não tem chance? Votar no que você odeia menos,
distorce a representatividade, caso clássico nas eleições brasileiras de 2018 e
2022.
Uma deepfake, por exemplo, pode ser criada a
partir de uma gravação de três segundos com sua voz. AI cria o discurso e
divulga como se fosse você. Ou milhões de falsos seguidores, bot farms,
combatendo a verdade e distribuindo material duvidoso e criando um cenário
irreal. Ou pagando consciências de profissionais que emprestam credibilidade de
canais formais como jornais, rádios e blogs.
Você é um
peão sem criar conteúdo, basta curtir, compartilhar ou retuitar. O algoritmo
faz o resto.
A “vitimização”
que o Estadão alega e as campanhas de desmonetização lideradas pelo Sleep
Giants provam que a sociedade pode agir quando manipulada ou se sentir ameaçada.
O uso de IA
é legítimo na publicidade porque é uma decisão pessoal com reflexos individuais. Na política, o voto é um direito
individual, mas seu resultado é difuso,
impacta a sociedade.
Brexit, Trump, Bolsonaro e Giorga Meloni são exemplos que notamos tarde demais. E não temos como medir
seu impacto no resultado da eleição argentina do último domingo, que pode ter consequências
graves no futuro do país.
Temos que treinar IA para combater
IA, porque é impossível ao ser humano filtrar ou mediar com sucesso tanta
informação. E ter consciência que regular
não é censura, é uma ferramenta de prevenção
social.
A democracia precisa da academia, ONGs e startups para criar uma comunicação pública transparente, verdadeira, independente, justa e democrática.
Emoticon Emoticon