EnglishJapanesePortugueseSpanish
21.09.2020

VB Científico: Inteligência Artificial – O outro lado da moeda

Por Juliana Carvalho

Bônus do mês de setembro!

Uma frase que merece mais algumas reflexões foi deixada ao final do último texto…

E a reflexão trazida nesse extra do segundo ciclo é a seguinte:

Se a revolução das máquinas ainda não está nem perto de se tornar uma realidade, devemos nos preocupar com o uso das Inteligências Artificiais?

A resposta para esse questionamento é: com certeza!

 

O uso de IAs ainda não é bem regulamentado aqui no Brasil, gerando polêmica e discussão acerca dos riscos da aplicação desse tipo de tecnologia. Nesse sentido, o relato do Thiago Moraes, integrante do Laboratório de Políticas Públicas e Internet (LAPIN), foi fundamental para explicar esses desdobramentos.

Os modelos e predições decorrentes de sistemas de aprendizagem de máquina, apesar de inquestionavelmente úteis na solução de problemas, não estão livres de vieses e imprecisões. Isso pode ser decorrente de tendências indesejadas na composição das bases de dados utilizadas para seu treinamento. Esse comportamento enviesado, conhecido como discriminação algorítmica1, pode estar relacionado com gênero, etnia, idade, naturalidade, sexualidade e outras formas de discriminação existentes na sociedade.

Um exemplo de discriminação algorítmica racial foi trazido à tona por um estudo conduzido pelo Massachusetts Institute of Technology (MIT) acerca de softwares de reconhecimento facial. O estudo aponta que o erro para o reconhecimento de homens brancos é menor do que 1%, já para mulheres negras poderia chegar até 35%.

Outra preocupação está relacionada com o processamento dos dados. Para funcionarem, as IAs utilizam um volume imenso de dados pessoais, alguns de natureza sensível como informações raciais, orientação sexual ou interesses políticos e religiosos. O mal uso dos dados pessoais podem desrespeitar direitos de privacidade2 e de proteção de dados3.

A finalidade do uso dados obtidos por modelos de IA também é um aspecto de extrema importância. É importante avaliar se uma IA está sendo utilizada para uma função apropriada. Deve ser muito bem pensado se a utilização de um programa que avalia, por exemplo, a propensão de reincidência de crimes deve ser implementado como única medida avaliativa no processo de planejamento e implementação de ações que previnam a ocorrência de crimes.

Além disso, sempre que o assunto é tecnologia, existe um grande receio quanto à substituição de mão de obra humana por máquinas. As IAs não necessariamente devem substituir os humanos para certas funções. Thiago mencionou, em seu relato, que as IAs são capazes de realizar algumas abstrações de maneiras que os humanos não conseguem, assim como os humanos realizam abstrações que IAs ainda não são capazes de realizar. Em muitos contextos, portanto, as IA não devem substituir os profissionais, mas servir como um auxiliar para determinadas atividades.

Discussões aprofundadas e regulamentações sobre como os dados são coletados, tratados e utilizados tornam-se cada vez mais urgentes e imperativas para a implementação dessas tecnologias. Também se mostra relevante a divulgação desse tipo de conhecimento para que a população se conscientize quanto à importância dos direitos de privacidade e de proteção de dados pessoais.

Nesse contexto, o LAPIN realiza diversas frentes de trabalho, desenvolvendo pesquisas junto à comunidade acadêmica, bem como divulgação científica, por meio de  webinários e publicação de cartilhas educativas. Além disso, atuam no direcionamento de políticas públicas e regulamentação dessas e outras tecnologias.

O laboratório é um think tank, ou como o Thiago prefere chamar, um think-and-do tank. Um think tank seria um laboratório de ideias, ou seja, uma organização com profissionais e especialistas de áreas relevantes para determinado tema, que se reúnem para discutir e levantar ideias. Já um think-and-do tank, além de realizar a parte de debate e reflexão, também atua de forma mais explícita em direcionamentos mais técnicos para a implementação de políticas públicas.

 

Com grandes informações, vêm grandes responsabilidades.

 

Mais sobre o LAPIN:

O laboratório foi criado, em 2016, na Universidade de Brasília. Em abril de 2020, se desvincularam da universidade, embora ainda possuam laços com a instituição para trabalhos mais voltados à comunidade acadêmica. O laboratório não atua apenas na área de Inteligência Artificial, mas trabalham com regulação de tecnologias com foco na proteção de dados, vigilância e desinformação. O Thiago Moraes, Conselheiro-presidente, é formado em Engenharia de redes e em Direito pela UnB, além de mestre em Ciência da Informação. Realizou também um mestrado em Law & Technology, na Tilburg University, na Holanda, e atualmente trabalha no Ministério das Comunicações.

 

 

Site: https://lapin.org.br/equipe/

Youtube: https://www.youtube.com/channel/UCW3Jj5i4iwKIZxZr63T0l9w

Twitter: @lapinbr

Instagram: @lapin.br

Linkedin: https://www.linkedin.com/company/51728823/admin/

Facebook: @lapinbr

 

Notícia do Uol sobre discriminação algorítmica: https://www.uol.com.br/tilt/noticias/afp/2020/07/07/os-algoritmos-e-seus-preconceitos-na-mira-dos-movimentos-antirracistas.htm

 

Texto do The New York Times sobre discriminação algorítmica em reconhecimento facial [em inglês]:

https://www2.cs.duke.edu/courses/spring20/compsci342/netid/readings/facialrecnytimes.pdf

 

Notícia de estudo do MIT sobre discriminação algorítmica em reconhecimento facial [em inglês]:

https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212

 

Também ficou chocado?

Vale a pena aprofundar no assunto do momento!

 

Como já sabem, em caso de dúvidas, sugestões, reclamações ou elogios, somos um canal aberto! Envie um e-mail ou entre em contato pelo insta do VB!

julianamcarvalho.vbc@gmail.com

Juliana Carvalho.

 

  1. Discriminação algorítmica: quando algoritmos [conjunto de instruções para a realização de uma tarefa] atuam de maneria discriminatória em relação a pessoas. No caso de IAs, está geralmente associado a um viés algorítmico oriundo de um banco de dados com tendências que refletem discriminações presentes na sociedade [Exemplo: Se uma máquina deve categorizar imagens de animais e no banco de dados utilizado para treiná-la não tem aves, muito provavelmente ela apresentará dificuldades para identificar um tucano].
  2. Direito de privacidade: a privacidade é um Direito Fundamental assegurado na Constituição que protege a esfera de intimidade dos indivíduos.
  3. Direito de Proteção de dados: a proteção de dados garante mais controle e transparência para os indivíduos sobre a forma que seus dados pessoais são utilizados por terceiros. No Brasil, é regulada pela Lei Geral de Proteção de Dados, LGPD.

 

%name VB Científico: Inteligência Artificial O outro lado da moeda

Cidade
Data
Adultos
Crianças
Bebês

Fechar

Enviar email

Que tal ter acesso rápido e fácil ao seu roteiro de onde estiver?
Envie por e-mail, compartilhe com amigos, e divirta-se em BSB!!!

Fechar

Criar novo roteiro

Fechar

Editar Roteiro

Fechar

Esqueci minha senha

Fechar

Aviso

Solicitação enviada com sucesso!