A LGPD foi criada com o objetivo de garantir a proteção dos dados pessoais e a privacidade dos cidadãos, estabelecendo regras sobre como esses dados podem ser tratados. No entanto, a utilização de IA apresenta desafios únicos. Como essa tecnologia depende de grandes volumes de dados para gerar análises precisas, muitas vezes é difícil limitar o processamento apenas às informações essenciais, sem comprometer a funcionalidade e a acurácia dos modelos. Além disso, a complexidade dos sistemas de IA pode tornar suas decisões opacas para o público, o que contrasta com a transparência e a explicabilidade exigidas pela LGPD. Outro princípio fundamental da lei é a minimização de dados, que orienta o uso apenas das informações estritamente necessárias — uma diretriz desafiadora no desenvolvimento de algoritmos de IA.
A LGPD estabelece regras para coleta, armazenamento e uso de dados pessoais, que afetam diretamente o uso da IA. Organizações que utilizam IA devem garantir que os dados sejam coletados com consentimento e usados apenas para os fins autorizados. A LGPD exige também que, em decisões automatizadas, como por exemplo processo seletivo de vestibular, sejam oferecidas explicações claras sobre os critérios de decisão.
Além disso, ao utilizar plataformas de IA que possam manipular dados pessoais, como uma lista de e-mails, é necessário seguir as diretrizes da LGPD, pois, ao compartilhar informações com a empresa de IA, essa prática pode implicar em compartilhamento não autorizado de dados pessoais.