Cincopes
Cincopes ›

on 15 maio 2026

PLANEJAMENTO - IA, DE IMPORTANTE A FUNDAMENTAL, SEM DECIDIR

Um dos meus primeiros trabalhos, lá nos anos 70, foi na IBM, badge 36486, e lembro que no manual de treinamento havia um alerta que faz todo o sentido se replicado ao uso de IA.

“Um computador nunca pode ser responsabilizado, portanto um computador nunca deve tomar uma decisão de gestão”.

IA nunca será culpada, responsável ou punida, porque não domina o conhecimento, é deposito de dados e informações produzidos pela inteligência natural humana.

Elas podem operar na automação, mas nunca na tomada de decisão, porque apenas processam dados e informações e oferecem alternativas de cenários ao tomador de decisão.

A relação com a IA não é para preguiçosos. Ela se assemelha ao brainstorm - pergunta, analisa a resposta, coloca novas variáveis, provoca novos questionamentos, analisa as novas opções e, assim, vai desenhando a melhor proposta.

Antigamente, fazíamos cálculos, líamos inúmeros relatórios, analisávamos extenuantemente dados, o que sugava nossa energia, prejudicando nossa capacidade intelectual ao decidir. Hoje, podemos melhorar a qualidade de nossa decisão agindo com mais clareza e assertividade, porque o trabalho árduo de análise é da IA.

Algo está errado se IAs decidem contratações ou gerenciam fluxos de trabalho humano, porque não há como responsabilizar a IA por turnover, burn out ou absenteísmo.

Inteligência Artificial Responsável é uma política de governança e ética focada na equidade, uso sensato, mitigação de riscos e constante diálogo com responsáveis por seu desenvolvimento.

IA é estratégica, universal e democrática e deve ser adequada e estar ao alcance de todos.

A legislação europeia já exige IA ética, IA responsável, treinamento dos usuários e coloca sob sua responsabilidade os erros de IA.

Essa responsabilização humana coloca um peso extremamente importante sobre os ombros de engenheiros de prompts e usuários de IA, que precisam tomar cuidado com riscos legais e éticos.

A ética é o uso focado na justiça, privacidade e implicações generalizadas do seu uso na sociedade, mais comum no meio acadêmico e pesquisas.

A responsável tem a ver com equidade, transparência e respeito a legislação, comum na gestão pública e privada com o uso de algoritmos sem qualquer viés.

As empresas devem garantir uma IA justa para todos, construindo modelos que ponderem adequadamente diferentes critérios para diferentes grupos. Quanto mais diversa for a equipe responsável pela criação e treinamento da IA, menor o risco de pontos cegos e viés tendencioso.

Quanto a honestidade dos cadastros, temos um paradoxo. Quanto maior a fidelidade dos dados, mais justo e democrático o resultado e maior o risco à sua privacidade. Os golpistas cibernéticos fizeram o “favor” de transformar atributos comuns em dados críticos.

É absolutamente necessário um protocolo robusto de segurança com criptografia forte para dados em repouso ou em trânsito, políticas de gerenciamento de identidade e acesso para limitar quem tem acesso, histórico de log e a anonimização de dados pessoais.

A estrutura de governança é mais valiosa do que a IA, com responsabilidade e consequências claras e não pode ser exercida por apenas uma pessoa, sob o risco do poder propiciar desvios éticos ou comportamentais.

As regras devem ser revistas e aprimoradas constantemente pela velocidade com que a tecnologia evolui e o mercado reage. Ausência de regras, falha no treinamento e nos padrões éticos expõem empresas a riscos reputacionais, operacionais e judiciais.

Em breve, a IA passará de importante para fundamental no negócio, mas continuará apenas participando do julgamento, nunca na decisão.