Centro de formação executiva focado em liderança, inovação e curadoria de conteúdos para líderes e gestores do futuro.

Conheça mais

O portal brasileiro da faculdade de gestão do MIT, trazendo conteúdo de qualidade e confiável sobre o tema.

Você está aqui

Acesso a estudos exclusivos e materiais de ensino produzidos pela faculdade de negócios de Harvard.

Versão brasileira do portal referência em negócios na China, endossado pela universidade de negócios Cheung Kong.

Conheça mais
O CNEX faz parte do ecossistema Atitus. Conhecimento, tecnologia e inovação. Conectadas com o mesmo propósito: o seu futuro.

Status de leitura

Faça login para usar este recurso

Crie uma playlist

Faça login para salvar este conteúdo em suas playlists

Não lido

Inteligência artificial desperta discussões sobre confiabilidade e ética

Estudo do SAS indica que líderes confiam em recomendações dadas por sistemas de IA e suas organizações já estruturam equipes focadas em questões éticas

Equipe de conteúdo SAS
5 min de leitura
Inteligência artificial desperta discussões sobre confiabilidade e ética

Ao mesmo tempo que a inteligência artificial (IA) entusiasma aqueles que enxergam o seu potencial para solucionar problemas difíceis, o fato de a tecnologia estar recebendo tanta autonomia – e até tratamento pessoal – vem criando uma onda de preocupação. Por mais que algumas vezes essa inquietação pareça coisa de ficção científica, o uso da IA de fato carrega riscos potenciais que as organizações precisam estar prontas para gerenciar.

Especialmente porque a inteligência artificial permite que máquinas tomem decisões e ações autônomas, as discussões sobre sua confiabilidade são mais urgentes do que aquelas relacionadas a outras tecnologias.

Para ajudar a entender o grau de confiança em IA, o MIT, em conjunto com o SAS, pediu que 2.200 líderes de negócios, gestores e especialistas em todo o mundo dissessem quão confiáveis eles consideram os resultados e as recomendações de sistemas baseados em IA em dois diferentes contextos: em suas vidas pessoais, como consumidores; e no trabalho, ao interagir com os sistemas de IA em suas organizações.

Em uma escala de 0 a 10, onde 10 é o mais confiável, a nota média registrada para os sistemas de IA pessoais foi 7, ante 6 para o uso nas empresas.

O grau de confiança varia quando considerados os níveis de maturidade e adoção de IA pelas empresas dos entrevistados. Confira o gráfico abaixo.

(https://mitsmr-public.s3.amazonaws.com/uploads/b986a4cd-ac4f-47d7-b1fc-d6b831b38ce3.png)* Fonte: estudo MIT\_howAIleadschange

Além do grau de confiabilidade, a análise também avaliou algumas preocupações dos executivos em relação aos riscos trazidos pela IA, e descobriu que as seis principais inquietudes dizem respeito a:

  • Entrega de índices equivocados de retorno sobre o investimento
  • Produção de informação de má qualidade
  • Uso antiético da tecnologia
  • Suporte a decisões tendenciosas, preconceituosas e potencialmente ilegais
  • Produção de resultados que humanos não consigam explicar
  • Incapacidade de gerenciar questões muito imprevisíveis

Novas ameaças demandam novas estruturas de gestão de risco

Para construir confiança em torno da IA é necessário gerenciar os riscos associados a ela. O levantamento do SAS tentou entender como as empresas estão fazendo isso. 

De acordo com a pesquisa, cerca de metade delas tem trabalhado para criar estruturas organizacionais capazes de gerenciar os riscos associados à IA: 26% contam com uma equipe dedicada a criar políticas e gerenciar esses riscos, e 24% planejam criar essa estrutura. Naturalmente, as organizações que já utilizam algum tipo de recurso de inteligência artificial são mais propensas a contar com um time focado em estabelecer políticas e endereçar os riscos – 57% das empresas que fazem uso de IA em grande escala já o fazem, assim como 38% das que possuem sistemas pontuais de IA.

As grandes empresas, com 5.000 funcionários ou mais, também tendem a endereçar os riscos da IA com mais efetividade: 34% delas já nomearam um grupo para isso. 

Gestão diferente

A responsabilidade sobre a gestão de risco em IA é um pouco diferente dos demais processos de controle e mitigação de ameaças ao negócio. Aqui, ela tende a recair sobre o CIO, CTO ou o próprio CEO, assim como tende a ser compartilhada. A pesquisa indica que poucas organizações estão dando a responsabilidade sobre os riscos da IA a áreas que tradicionalmente gerenciam riscos, como a financeira ou jurídica.

E, embora as aplicações de IA tenham grande potencial de causar prejuízos se forem mal utilizadas – ou se recomendarem decisões equivocadas –, apenas um em cada quatro líderes diz contar com um plano para remediar os danos. Veja a imagem abaixo.

Ética e conceitos preestabelecidos

A IA parece estar colocando na mesa discussões sobre ética. Para os especialistas de mercado e líderes de negócios, tornar os modelos de IA mais transparentes é algo alinhado com os esforços para garantir que essa poderosa tecnologia seja utilizada de maneira ética e que os desenvolvedores considerem que o modelo criado para um determinado fim pode, potencialmente, ser utilizado de modo inadequado para outra finalidade.

As empresas parecem estar atentas a essa questão. De acordo com o estudo do SAS, 42% das organizações que possuem iniciativas de IA contam também com um quadro de profissionais dedicado a determinar caminhos éticos para o uso da tecnologia. Em 21% dessas organizações, especialistas em ética já foram contratados para compor o time. Veja a figura abaixo:

Além disso, questões de preconceitos também vêm à tona. Gerenciar os riscos de conceitos preestabelecidos em aplicativos de IA é fundamental para uma ciência de dados sólida. Isso porque ajustes inadequados podem comprometer modelos que preveem falhas em máquinas tão facilmente quanto podem distorcer modelos que impactam vidas humanas. Evidentemente, a gestão dos preconceitos é muito mais urgente nos modelos que fazem recomendações que afetam as pessoas, em que as consequências dos erros podem ser mais severas. Identificar e mitigar o risco de vieses requer que as organizações analisem os conjuntos de dados sob a ótica da diversidade e tragam diferentes pontos de vista à medida que os modelos são desenvolvidos.

Você leu o post? Então faça login e tenha acesso ao recurso de “Marcar como lido”.

Equipe de conteúdo SAS
null

Deixe um comentário

Ouvir
Item salvo (0)
Por favor, faça login para salvar este conteúdo em suas playlists Fechar
Share
Conteúdo da editoria Tecnologia, IA e dados

Para você Faça login para ver sugestões personalizadas

Você atualizou a sua lista de conteúdos favoritos. Ver conteúdos
aqui