A adoção da inteligência artificial pelas organizações pode gerar impactos imprevisíveis, como discriminação, segundo artigo dos pesquisadores da FGV EAESP Carlos Eduardo Brandão e João Luiz Becker publicado na revista “GV Executivo”. Por isso, princípios éticos como responsabilidade, com a implementação de mecanismos de auditoria, transparência sobre capacidades e limitações dos sistemas e ética, baseada na supervisão e intervenção humana, são princípios fundamentais para lidar com essa tecnologia.
A pesquisa trabalha com uma revisão sistemática de 173 trabalhos científicos sobre o tema, acessados em bases de dados como Web of Science e Scopus. A partir da literatura, os autores apontam que o uso de algoritmos de inteligência artificial pelas organizações exige uma atualização dos modelos de referência para gestão de riscos para garantir sistemas confiáveis, justos e responsáveis.
A inteligência artificial consiste na adaptação de recursos e funções tecnológicas às interações com humanos para responder de forma cada vez mais precisa às demandas do usuário, explica o artigo. Porém, altos níveis de automação contribuem para o aumento de riscos, como a reprodução de vieses e práticas discriminatórias ocasionadas por falhas de reconhecimento facial de suspeitos de crimes, acidentes causados por veículos com sistemas de direção autônomos e interferência nos processos de aprendizagem humana.
Inteligência artificial nas empresas: riscos e impactos devem ser mapeados, comunicados e mitigados
O processo de gestão de riscos proposto pelos autores é cíclico e alinhado aos objetivos da inteligência artificial nas organizações. Prevê medidas como identificar, categorizar e avaliar os riscos mapeados, considerando a possibilidade de ocorrência de um evento de risco na organização. Em seguida, os impactos devem ser registrados e comunicados para as partes interessadas e órgãos de regulação, com esforço de mitigação e constante monitoramento dos resultados.
Entre as estruturas de gestão de risco sugeridas pelo artigo, estão a criação de comitê de risco para supervisionar o uso dos sistemas de inteligência artificial nas empresas e orientar as medidas para a mitigação de impactos. “Ao longo de sua jornada, as organizações devem assumir riscos adequados aos seus objetivos e metas, evitando a superexposição ou a subexposição, potencialmente prejudiciais aos seus negócios”, observam os autores.