Centro de formação executiva focado em liderança, inovação e curadoria de conteúdos para líderes e gestores do futuro.

Conheça mais

O portal brasileiro da faculdade de gestão do MIT, trazendo conteúdo de qualidade e confiável sobre o tema.

Você está aqui

Acesso a estudos exclusivos e materiais de ensino produzidos pela faculdade de negócios de Harvard.

Versão brasileira do portal referência em negócios na China, endossado pela universidade de negócios Cheung Kong.

Conheça mais
O CNEX faz parte do ecossistema Atitus. Conhecimento, tecnologia e inovação. Conectadas com o mesmo propósito: o seu futuro.

Status de leitura

Faça login para usar este recurso

Conteúdo da review
Crie uma playlist

Faça login para salvar este conteúdo em suas playlists

Não lido

Por que a “incerteza explícita” é importante para o futuro da tecnologia ética

E se os algoritmos fossem construídos em torno dos objetivos dos usuários, em vez das metas finais da empresa?

Mark Nitzberg
12 de junho de 2024
4 min de leitura
Por que a “incerteza explícita” é importante para o futuro da tecnologia ética

As maiores preocupações com a IA hoje não giram em torno de visões distópicas de robôs controlando a humanidade. O problema são as máquinas turbinarem o mau comportamento humano. Algoritmos de mídia social são um dos exemplos mais evidentes. O YouTube ao longo dos anos implementou mecanismos de recomendação voltados a manter as pessoas grudadas em suas telas. Conforme relatado pelo New York Times em 2019, muitos criadores de conteúdo de extrema direita aprenderam a ajustar seu conteúdo para torná-lo mais atraente para o algoritmo e assim levar usuários a assistir a vídeos cada vez mais radicais. O YouTube reagiu, esforçando-se para remover o discurso de ódio. Um estudo independente publicado em 2019 afirmou que o algoritmo do YouTube estava indo bem no trabalho de desencorajar os espectadores a assistir a “conteúdo radical ou extremista”. Ainda assim, em julho de 2021, uma nova pesquisa descobriu que o YouTube ainda estava ajudando a espalhar desinformação nociva. Twitter e Facebook enfrentam controvérsias semelhantes, pois a questão inicial permanece: o objetivo do negócio é manter os usuários na plataforma.

Algoritmos de recomendação são programados para gerar engajamento. Para isso, o machine learning se adapta e otimiza com base no comportamento do usuário. Se um conteúdo estimula um engajamento maior, o algoritmo recomenda esse mesmo conteúdo a outras pessoas, todas a serviço do objetivo final de engajar.

Inovação: por que não decola
Este conteúdo faz parte da edição #10 do MIT SMR Brasil.Já tem acesso? Fazer loginAssinarComprar edição

Você leu o post? Então faça login e tenha acesso ao recurso de “Marcar como lido”.

Mark Nitzberg
Diretor executivo do UC Berkeley Center for Human-Compatible AI e coautor de The AI Generation: Shaping Our Global Future With Thinking Machines (Pegasus Books, 2021).

Deixe um comentário

Sumário da review: edição #10 do MIT SMR Brasil.
Sumário
Ouvir
Item salvo (0)
Por favor, faça login para salvar este conteúdo em suas playlists Fechar
Share

Para você Faça login para ver sugestões personalizadas

Você atualizou a sua lista de conteúdos favoritos. Ver conteúdos
aqui