Um dos meus primeiros trabalhos, lá
nos anos 70, foi na IBM, badge 36486, e lembro que no manual de treinamento
havia um alerta que faz todo o sentido se replicado ao uso de IA.
“Um computador nunca pode ser responsabilizado,
portanto um computador nunca deve tomar uma decisão de gestão”.
IA nunca será culpada, responsável ou punida, porque não domina o conhecimento, é deposito de dados e informações produzidos pela inteligência natural humana.
Elas podem operar na automação, mas
nunca na tomada de decisão, porque apenas processam dados e informações e
oferecem alternativas de cenários ao tomador de decisão.
A relação com a IA não é para
preguiçosos. Ela se assemelha ao brainstorm
- pergunta, analisa a resposta, coloca novas variáveis, provoca novos
questionamentos, analisa as novas opções e, assim, vai desenhando a melhor
proposta.
Antigamente, fazíamos cálculos, líamos inúmeros relatórios, analisávamos
extenuantemente dados, o que sugava nossa energia, prejudicando nossa
capacidade intelectual ao decidir. Hoje, podemos melhorar a qualidade de nossa
decisão agindo com mais clareza e assertividade, porque o trabalho árduo de
análise é da IA.
Algo está errado se IAs decidem contratações ou gerenciam fluxos de
trabalho humano, porque não há como responsabilizar a IA por turnover, burn out ou absenteísmo.
Inteligência Artificial
Responsável é uma política de governança e ética focada na equidade, uso
sensato, mitigação de riscos e constante diálogo com responsáveis por seu
desenvolvimento.
IA é estratégica, universal e democrática e deve ser adequada e estar ao
alcance de todos.
A legislação europeia já exige IA ética, IA responsável, treinamento dos
usuários e coloca sob sua responsabilidade os erros de IA.
Essa responsabilização humana
coloca um peso extremamente importante sobre os ombros de engenheiros de
prompts e usuários de IA, que precisam tomar cuidado com riscos legais e éticos.
A ética é o uso focado na
justiça, privacidade e implicações generalizadas do seu uso na sociedade, mais
comum no meio acadêmico e pesquisas.
A responsável tem a ver com
equidade, transparência e respeito a legislação, comum na gestão pública e
privada com o uso de algoritmos sem qualquer viés.
As empresas devem garantir uma IA justa para todos, construindo modelos que
ponderem adequadamente diferentes critérios para diferentes grupos. Quanto mais
diversa for a equipe responsável pela criação e treinamento da IA, menor o
risco de pontos cegos e viés tendencioso.
Quanto a honestidade dos cadastros, temos um paradoxo. Quanto maior a
fidelidade dos dados, mais justo e democrático o resultado e maior o risco à
sua privacidade. Os golpistas cibernéticos fizeram o “favor” de transformar
atributos comuns em dados críticos.
É absolutamente necessário um protocolo robusto de segurança com criptografia
forte para dados em repouso ou em trânsito, políticas de gerenciamento de
identidade e acesso para limitar quem tem acesso, histórico de log e a
anonimização de dados pessoais.
A estrutura de governança é mais valiosa do que a IA, com
responsabilidade e consequências claras e não pode ser exercida por apenas uma
pessoa, sob o risco do poder propiciar desvios éticos ou comportamentais.
As regras devem ser revistas e aprimoradas constantemente pela velocidade
com que a tecnologia evolui e o mercado reage. Ausência de regras, falha no
treinamento e nos padrões éticos expõem empresas a riscos reputacionais,
operacionais e judiciais.
Em breve, a IA passará de importante para fundamental no negócio, mas continuará apenas participando do julgamento, nunca na decisão.

Emoticon Emoticon