A ética provoca debates acirrados na sociedade desde os tempos do filósofo Aristóteles. Como ela é definida a partir da moral humana, algo que, por sua vez, sofre influência de questões sociais e culturais, chegar a um consenso global sobre determinados temas é um desafio e tanto.
Com o avanço tecnológico, o debate sobre a ética ganha nova proporção e envolve mais participantes, que enxergam riscos que vão desde a banalização de abusos de privacidade até o agravamento do preconceito e da discriminação contra determinados grupos da população.
A preocupação se justifica se olharmos para os casos recentes de uso de dados de usuários do Facebook por uma empresa de marketing, ou para o algoritmo do Google Fotos, que identificava pessoas negras como gorilas.
Centro de pesquisa
Muitos desses riscos estão atrelados à inteligência artificial (IA), uma vez que a tecnologia avança de forma rápida e descentralizada, sem parâmetros claros, e desenvolvida por humanos com os mais variados vieses e preconceitos.
Instituições de ensino e pesquisa já se movimentam para propor um direcionamento ético para o avanço tecnológico. Entre elas está a Universidade de Stanford, referência mundial em inovação e tecnologia, que lançou um centro de pesquisa interdisciplinar com a meta de reunir formuladores de políticas públicas, pesquisadores e estudantes responsáveis pela elaboração das tecnologias do futuro.
Vários governos e até mesmo empresas também já revelaram preocupação a respeito de questões éticas, emitindo sugestões de conduta para as iniciativas em IA, que se popularizam no universo corporativo com os chatbots.
Princípios éticos em IA
Uma proposta de estrutura ética é a Declaração de Montreal, criada por órgãos públicos e privados do Canadá e baseada em dez princípios fundamentais para soluções em IA:
- Bem-estar;
- Respeito à autonomia;
- Proteção da privacidade;
- Solidariedade;
- Participação democrática;
- Igualdade;
- Inclusão e diversidade;
- Responsabilidade;
- Prudência;
- Desenvolvimento sustentável.
Desenvolvedores de chatbots corporativos defende a transparência nas interações envolvendo chatbots. De maneira prática, essas empresas sustentam que, desde o início da comunicação, deve-se informar ao usuário que ele está falando com uma máquina, e também ser claro sobre o uso de dados pessoais. Para reter ou compartilhar informações do cliente, a empresa precisa obter sua autorização expressa.
A privacidade de informações pessoais, aliás, já é prevista na lei de proteção de dados em vigor na Europa, e que irá vigorar no Brasil a partir de agosto de 2020.
Consumidores em alerta
A preocupação já chegou também aos consumidores. Segundo pesquisa da Capgemini, 62% dos entrevistados confiam mais em uma AI quando suas interações são percebidas como “éticas”, e mais de 70% aguardam regulação sobre o uso da tecnologia.
Para as empresas e desenvolvedores que estavam alheios às questões éticas e de privacidade envolvendo os chatbots, essa é a hora de se adequar.
por Cassiano Maschio, diretor comercial da Inbenta no Brasil, empresa que auxilia o relacionamento online das marcas com seus clientes