Os desafios de treinar a inteligência artificial e proteger os dados pessoais

A inteligência artificial ainda está pendente de regulação, tanto no Brasil quanto na Europa, mas a LGPD (Lei Geral de Proteção de Dados – Lei 13.709/2018) no Brasil, e o GDPR (General Data Protection Regulation – regulamento europeu sobre proteção de dados) na Europa, já preveem o respeito à privacidade dos dados pessoais, no que diz respeito aos dados de entrada, que são usados para alimentar a IA, assim como aos dados de saída, que é a solução trazida pela IA.

A LGPD e o GDPR não trazem em seus textos a referência à inteligência artificial ou big data, mas há a previsão da revisão das decisões automatizadas pelo titular de dados (artigo 20 da LGPD), a autodeterminação informativa, que é o direito que cada indivíduo tem de controlar e proteger os seus dados pessoais.

Inteligência artificial e proteção de dados convergem no sentido de que o desenvolvedor de uma solução de IA, isto é, o controlador dos dados na LGPD, tem que, primeiramente, observar o respeito à privacidade de dados pessoais, estabelecendo um conjunto de práticas que visa a garantir a privacidade dos dados pessoais desde o início do desenvolvimento da solução de IA, o chamado Privacy by Design, fazendo análise de risco e adotando medidas de governanças efetivas.

A Autoridade Nacional de Proteção de Dados (ANPD), órgão regulador no Brasil que tem como missão zelar pela proteção de dados pessoais, pretende criar um sandboxregulatório que será um ambiente seguro e estruturado para que os desenvolvedores de IA possam treinar seus dados de entrada e de saída. Isso possibilitará à ANPD identificar lacunas em relação à eficácia e melhorar a regulação da proteção de dados com relação a IA no Brasil.

Gabriella Gaida | sócia de Di Ciero Advogados