Evento discute Inteligência Artificial sob a perspectiva ética

2524
1

As tecnologias de Inteligência Artificial (IA) e Ciência de Dados têm impactado diretamente desde a forma de se fazer negócios até o modo de se viver. Aqui no blog, já mostramos dezenas e dezenas de cases e exemplos do poder dos dados na sociedade, no mercado de trabalho, na educação, na saúde, no transporte e até nos relacionamentos.

No entanto, talvez até pelo encantamento geral que tomou conta das pessoas em relação à Inteligência Artificial (e não sem razão, tendo em vista todos os avanços e conquistas alcançados graças a essa tecnologia), aspectos fundamentais ao seu uso positivo e correto, como ética, responsabilidade e privacidade, têm sido pouco discutidos.

Diante desse cenário, Carolina Bigonha e Thiago Cardoso, sócios-fundadores da Hekima, Jan Diniz, do Grupo Anga, e Vitor Oliveira, Chief Data Scientist também da Hekima, fundaram o Em Perspectiva. Trata-se de uma iniciativa sem fins lucrativos, para promover uma narrativa positiva para Inteligência Artificial no Brasil.

De acordo com Carolina, “o objetivo da organização é ativar empreendedores, políticos, acadêmicos, gestores e a sociedade civil para pensar ativamente em como a IA e o uso de dados pode impactar o dia a dia da sociedade brasileira. Assim, poderemos gerar massa crítica e conteúdo relevante para suportar novas políticas públicas, códigos de ética em dados e outras reflexões”, afirma.

Carolina Bigonha

Inteligência Artificial Em Perspectiva

O primeiro ato do Em Perspectiva em direção a uma discussão sobre Inteligência Artificial e dados, pautada sob o olhar da ética e da responsabilidade, ocorreu na última terça-feira, 20/03, em São Paulo.

Refiro-me ao evento Inteligência Artificial Em Perspectiva, que, segundo Carolina, tinha três principais objetivos: “Apresentar a relevância deste assunto e mostrar porque chegou a hora de o Brasil levantar formalmente esta pauta; promover uma interação entre lideranças de diferentes setores, com experiências complementares sobre o tema; e iniciar um grupo de trabalho diverso e multidisciplinar para a construção de estudos e iniciativas relacionados”, conclui.

Ao longo do encontro, profissionais de renome em diferentes áreas, como tecnológica, educacional e jurídica, discutiram os limites da ética, privacidade e responsabilidade no desenvolvimento e aplicação de soluções de Inteligência Artificial e Ciência de Dados.

Luciano Sathler, Reitor do Centro Universitário Metodista Izabela Hendrix (instituição essa que elaborou o primeiro Curso Superior de Tecnologia em Ciência de Dados do Brasil), falou sobre a importância de o Brasil formar profissionais capacitados a desenvolver e utilizar bem tecnologias de IA no país. “Além da elaboração de um código de ética ou de conduta, é preciso que o Brasil se organize para formar pessoas com as competências técnicas necessárias para que tenhamos uma posição melhor no desenvolvimento e utilização da Inteligência Artificial. Outras nações, como a China e os EUA, incluem até em suas forças armadas divisões especializadas nas tecnologias digitais mais avançadas, pois esse é atualmente um campo obrigatório para a Defesa Nacional”, ele ressalta.

Luciano Sathler (centro) durante o Inteligência Artificial Em Perspectiva

Cenários extremos e (nem tão) hipotéticos

Um dos destaques do evento foi uma dinâmica em que os participantes deveriam debater acerca de situações extremas causadas por ou envolvendo o uso de IA e de dados. Foram levantados cenários que até pouco tempo faziam parte do imaginário e da ficção científica, mas que devem se tornar cada vez mais frequentes, como: “Um carro autodirigido está atravessando uma ponte estreita, quando, de repente, uma criança pula para frente dele. É tarde demais para parar. As únicas opções são: (1) avançar e atropelar a criança ou (2) desviar, jogando o seu passageiro rio abaixo. O que o carro deveria fazer?” (lembrando que, nesta semana, ganhou destaque mundial a notícia de que um carro autônomo da Uber atropelou e matou uma mulher).

Ou então: “Uma pessoa poderia ser detida preventivamente devido ao seu comportamento de compra, lugares que visitou ou pessoas com quem interagiu?” (contexto que parece ter saído diretamente do filme Minority Report, mas que já começou a ser realidade na China).

Participantes durante a dinâmica (Créditos/imagem: Eduardo Figueiredo)

Em algumas situações, o “veredito” foi mais facilmente definido. Contudo, em outras, os participantes chegaram à conclusão de que não havia exatamente “certo” ou “errado”, e sim pontos de vista diferentes, influenciados por questões subjetivas, como experiência de vida ou visão de mundo.

Essa percepção gerada pela dinâmica expôs algo que aparenta ser óbvio, mas que só salta aos olhos quando exposto dessa forma: nós ainda não temos respostas claras e definidas para grande parte, senão a maioria, dos impactos e desdobramentos gerados pelas tecnologias de Inteligência Artificial! Por isso é tão importante e imediato que pensemos em novas políticas públicas, códigos de ética em dados e outras ações nesse sentido.

Para refletir

Ao final do evento, foram distribuídas perguntas para os participantes, visando a reflexão sobre os temas discutidos ao longo do encontro. Foram elas:

  • Você confiaria em um software de aprovação ou recusa automática de empréstimo? Por quê? #confiança #justiça
  • Como lidar com o viés da inteligência artificial? Como eliminar o preconceito e racismo de sistemas com inteligência artificial? #justiça #viés
  • Como inserir conceitos e senso de justiça em sistemas com inteligência artificial? Como tratar minorias? #justiça #viés
  • Como tornar soluções com inteligência artificial confiáveis? Quando as pessoas confiarão em soluções com inteligência artificial? #confiança
  • Quando soluções\sistemas de inteligência artificial precisam ser transparentes? Toda decisão precisa ser interpretável por uma pessoa? #transparência
  • De quem são os benefícios gerados por sistemas inteligentes quando os dados são de usuários? Como respeitar a privacidade? Como devolver valor? #privacidade
  • Até que ponto vale a pena entregar seus dados para receber um benefício? #vigilância #privacidade
  • Até que ponto automações podem exacerbar a desigualdade e privar acesso? Como IA pode ser inclusiva? #impactosocial
  • Quem é responsável pelas consequências de uma decisão de sistema em inteligência artificial? #responsabilidade
  • Como regular os impactos da inteligência artificial? Como não criar barreiras para inovação? #legislação

Quais respostas você daria a essas perguntas? Conte nos comentários!

  • O gestor imediato, do código da empresa envolvida ao meu ver é o responsável direto por responder sobre decisões de sua plataforma digital de IA.

    Hekima acrescento uma pergunta, como o programa de cursos atuais voltadas a área da informação, tecnologia e correlatos devem ser atualizados? Considerando esse contexto tecnológico atual.

    Faço Biblioteconomia na UFRJ, vejo ligação direta da área com relação a organização da informação e do conhecimento e infelizmente algumas práticas de gestores de curso, levam a temática para temas obsoletos no cenário atual.

    Um abraço.

Top