Especialistas defendem proteção de dados processados por inteligência artificial
A comissão de juristas que analisa os projetos de lei sobre inteligência artificial (IA) retomou nesta sexta-feira (10) o seminário internacional com a participação de especialistas na área. Durante a manhã, eles analisaram os temas de proteção de dados e técnicas regulatórias baseadas em risco. Os painéis sobre mercados e sistemas de responsabilização, previstos para começar às 14h, serão transmitidos pelo canal da TV Senado no YouTube. O seminário foi iniciado na quinta (9).
O debate sobre proteção de dados e regulação de IA começou com a apresentação de Gabriela Zanfir, representante do Future of Privacy Forum (Estados Unidos). Para ela, o processamento automatizado de dados pessoais deve ser desenvolvido “para servir à raça humana”.
— O que isso quer dizer? A meta da proteção de dados é garantir que a informação relacionada ao indivíduo seja coletada e utilizada a partir de meios automatizados e algorítmicos de tal forma que todos os seus demais direitos fundamentais sejam protegidos. Precisamos proteger esses dados pessoais. Mesmo que decisões automatizadas atuem em larga escala, é preciso assegurar que essas decisões sejam tomadas de forma justa. Que as liberdades pessoais sejam protegidas, como o direito a privacidade, segurança, não discriminação e liberdade de reunião — afirmou.
Professor da Universidade Politécnica de Turim (Itália), Alessandro Mantelero destacou a importância de uma abordagem de proteção de dados baseada em riscos. Ele afirmou que ferramentas de coleta e processamento de informações pessoais não podem sobrepor o interesse econômico aos direitos individuais.
— A avaliação de risco significa que você precisa avaliar o risco antes que ele ocorra. É preciso desenvolver uma inteligência artificial que seja orientada e motivada pelos direitos humanos. O interesse meramente econômico não pode prevalecer sobre a proteção de dados pessoais. É um tipo de hierarquia entre os interesses. Não quer dizer que você não pode fazer negócios ou não pode ter proteção de interesses econômicos. Mas o foco deve ser os direitos humanos — argumentou.
A advogada Teki Akuetteh Falconer, da Africa Digital Rights’ Hub (Gana), alertou para uma série de “lacunas e questões éticas” que precisam ser consideradas no desenvolvimento de ferramentas de IA. Ela defendeu a atuação conjunta de especialistas de várias áreas para que direitos individuais sejam assegurados.
— Talvez haja lacunas com relação a direitos econômicos e com relação a discriminação também, o que nos demanda a construção de estruturas. É preciso trazer engenheiros e especialistas em privacidade e em direitos humanos. Vamos precisar trazer os especialistas de inteligência artificial, de forma a sermos capazes de construir uma estrutura dedicada para lidar com os desafios neste momento. Precisamos compreender o ecossistema dentro de nossa jurisdição — disse.
O debate contou ainda com a participação de Robin Wetherill, representante da Comissão Federal de Comércio dos Estados Unidos. Ela sublinhou que o avanço da tecnologia observado nas últimas décadas precisa ser acompanhado de medidas de moderação que protejam consumidores e crianças, por exemplo.
— Desenvolvemos recomendações para que os desenvolvedores tenham em mente a segurança de proteção de dados para determinar quando manter e quando se livrar de uma informação. É preciso considerar a sensibilidade da informação na hora de se desenvolver produtos de reconhecimento facial e serviços relacionados, por exemplo. O relatório recomenda que sinais digitais que utilizam reconhecimento facial não devem ser aplicados em locais onde crianças de reúnem. Eles não podem coletar dados faciais de crianças — mencionou.
Técnicas regulatórias
O painel sobre técnicas regulatórias e abordagem baseada em risco começou com a apresentação de Eike Graf, representante da Comissão Europeia. Ele defendeu que a legislação aplicada sobre direitos fundamentais seja estendida à gestão de dados por meio de inteligência artificial.
— Se já existem algumas regras, devemos trazer adendos a elas. Regras trabalhistas e leis do consumidor são relevantes para a utilização em sistemas de inteligência artificial. O uso de um sistema de IA está sujeito a direitos e obrigações. Se houver algum problema na utilização de tecnologias, deve-se evitar a prática, se necessário. Os direitos que temos para proteger os direitos fundamentais obviamente continuam a ser aplicados em diversas outras instâncias. A questão é onde devemos, devido à opacidade ou à complexidade, fazer um esforço extra para manter os direitos que já estão dispostos, assim como propor deveres extras — sugeriu.
Para Pam Dixon, fundadora do World Privacy Forum, o mundo assiste a uma aceleração em temas como inteligência artificial e machine learning — campo da engenharia que estuda o aprendizado automático de certas rotinas por máquinas e computadores. Ela defendeu um sistema regulatório específico para dar conta desse novo cenário.
— O mundo diante de nós é outro, totalmente diferente de dez anos atrás. Ao pensarmos sobre regulações para esses sistemas, pensamos que são sistemas visíveis para nós. Porém, cada vez mais estamos indo em direção a um mundo em que eles não serão apenas invisíveis. Eles serão como os encanamentos das casas: você sabe que está lá e você consegue ligar a torneira. Mas você não vai necessariamente conseguir ver os canos. Estamos seguindo rapidamente para isso. Quando isso acontecer, será necessário um controle regulatório distinto — afirmou.
O seminário contou ainda com a participação de Courtney Lang, representante do Conselho Industrial de Tecnologia e Informação (ITI) com sede nos Estados Unidos. Ela defendeu que os critérios usados para a definição de situação de risco no processamento de dados pessoais por meio de inteligência artificial sejam definidos em conjunto por governos e empresas de tecnologia.
— Os riscos precisam ser mitigados para o uso específico da IA. Isso ajudará a evitar resultados indesejados. Devemos trabalhar com acionistas e olhar quais seriam os maiores riscos para aplicação dessas regulamentações. Seria, claro, papel do governo estabelecer essas regras, mas também dos acionistas, que devem decidir o que seria um sistema de alto risco em inteligência artificial — afirmou.
A comissão temporária de juristas foi criada no Senado por ato do presidente da Casa, senador Rodrigo Pacheco. Formado por 18 especialistas, o colegiado tem até agosto para sugerir uma minuta de substitutivo para reunir os Projetos de Lei (PLs) 5.051/2019, 21/2020 e 872/2021. As matérias estabelecem princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil.
Fonte: Agência Senado