Equipe editorial da Getronics
Neste artigo:
A Inteligência Artificial (IA) revolucionou rapidamente os setores, as economias e as sociedades em todo o mundo. Reconhecendo tanto o vasto potencial quanto os riscos intrínsecos da tecnologia de IA, a União Europeia (UE) deu início a uma legislação abrangente para governar o desenvolvimento e a utilização da IA. A seguir, Rob Nidschelm se aprofundará nos marcos, na história e nos objetivos da nova legislação de IA da UE, explorará sua relação com outras estruturas regulatórias (como GDPR, NIS2 e DORA) e examinará iniciativas semelhantes fora da UE.
Um breve histórico da legislação de IA na UE
Os esforços legislativos da UE em relação à IA começaram com seriedade no final da década de 2010 e tinham como objetivo estimular a inovação e, ao mesmo tempo, proteger os direitos e a segurança dos cidadãos. Os principais marcos incluem:
- Abril de 2018: A Comissão Europeia divulgou a Estratégia Europeia sobre Inteligência Artificial, concentrando-se em ampliar os investimentos públicos e privados em IA, preparando-se para transformações socioeconômicas e garantindo uma estrutura ética e jurídica adequada.
- Dezembro de 2018: Adoção do Plano Coordenado de Inteligência Artificial, incentivando a colaboração entre os estados-membros para maximizar o impacto dos investimentos em IA nos níveis nacional e da UE.
- Abril de 2019: O Grupo de Especialistas de Alto Nível em IA publicou as Diretrizes Éticas para IA Confiável, delineando princípios como transparência, responsabilidade e supervisão humana.
- Fevereiro de 2020: Lançamento do Livro Branco sobre Inteligência Artificial pela Comissão Europeia, propondo opções de políticas para permitir o desenvolvimento confiável e seguro da IA na Europa.
- Abril de 2021: Introdução da proposta da Lei de Inteligência Artificial (AI Act), com o objetivo de estabelecer uma estrutura legal para a IA que equilibre a inovação com a proteção dos direitos fundamentais.
Entendendo a Lei de Inteligência Artificial
O AI Act proposto representa um marco na legislação destinada a regulamentar as tecnologias de IA com base em seus riscos potenciais. Ela adota uma abordagem baseada em riscos, categorizando os sistemas de IA para garantir níveis adequados de regulamentação sem sufocar a inovação.
No topo da hierarquia estão os sistemas de IA que representam um "risco inaceitável". Esses sistemas são totalmente proibidos devido ao seu potencial de ameaçar a segurança, os meios de subsistência ou os direitos fundamentais. Isso inclui sistemas que manipulam o comportamento humano para contornar o livre-arbítrio dos usuários ou que permitem a pontuação social por parte dos governos.
Em seguida, estão os aplicativos de IA de "alto risco", que estão sujeitos a obrigações rigorosas antes de poderem ser comercializados. Esses sistemas são normalmente usados em setores críticos, como saúde, transporte e aplicação da lei. Esses padrões incluem a realização de avaliações de risco, a garantia de conjuntos de dados de alta qualidade, a manutenção de registros de atividades e a permissão de supervisão humana.
Os sistemas de "risco limitado" são aqueles com obrigações específicas de transparência. Por exemplo, os chatbots devem informar aos usuários que eles estão interagindo com uma máquina, para garantir o consentimento informado.
Por fim, podem ser desenvolvidos e usados sistemas de IA de "risco mínimo", que estão abertos à legislação existente sem requisitos legais adicionais.
A Lei de IA em relação ao GDPR, NIS2 e DORA
A Lei de IA não existe em um vácuo; ela complementa e se cruza com outras estruturas regulatórias importantes da UE, o que cria um ambiente coeso para a governança tecnológica.
O Regulamento Geral de Proteção de Dados (GDPR), em vigor desde maio de 2018, é o alicerce da proteção de dados e da privacidade na UE. A Lei de IA baseia-se nos princípios do GDPR, abordando a qualidade e a governança de dados em sistemas de IA. Ambos os regulamentos enfatizam a proteção de dados pessoais, a transparência e os direitos dos indivíduos. Por exemplo, os sistemas de IA devem garantir a minimização de dados e o processamento legal, alinhando-se aos requisitos do GDPR.
A Diretiva de Segurança de Redes e Informações 2 (NIS2) visa reforçar a segurança cibernética em toda a UE, abrangendo setores críticos e serviços essenciais. A Lei de IA atende à NIS2 ao garantir que os sistemas de IA, especialmente os de alto risco, sejam seguros e resilientes contra ameaças cibernéticas. Essa unidade é crucial porque os sistemas de IA podem se tornar alvos ou ferramentas para ataques cibernéticos, comprometendo potencialmente a segurança e a privacidade.
A Lei de Resiliência Operacional Digital (DORA) se concentra na capacidade do setor financeiro de resistir e se recuperar de interrupções relacionadas às TIC. A Lei de IA complementa a DORA, garantindo que os sistemas de IA usados em finanças sejam confiáveis e seguros. Juntos, eles promovem a resiliência operacional, enfatizando o gerenciamento de riscos, a comunicação de incidentes e a supervisão robusta.
Ao alinhar o AI Act com o GDPR, o NIS2 e o DORA, a UE cria um ambiente regulatório unificado que aborda a proteção de dados, a segurança cibernética e a resiliência operacional, promovendo um ecossistema confiável para o desenvolvimento e a implantação da IA.
Objetivos da nova legislação de IA
A legislação de IA da UE pretende atingir vários objetivos principais. Um dos principais objetivos é a proteção dos direitos fundamentais e da segurança, garantindo que os sistemas de IA sejam desenvolvidos e utilizados de forma a respeitar princípios como a não discriminação, a privacidade e a proteção de dados.
Promover uma IA confiável é outro objetivo central. Ao estabelecer regras e padrões claros, a legislação busca aumentar a confiança do público nas tecnologias de IA, que é uma forma essencial para que elas sejam adotadas e aceitas. A UE também quer promover a inovação criando um mercado único para aplicativos de IA legais, seguros e confiáveis. Isso é para limitar a fragmentação do mercado e proporcionar segurança jurídica para empresas e inovadores.
Garantir a transparência e a responsabilidade é fundamental. A legislação exige medidas de transparência, como a divulgação de quando os indivíduos estão interagindo com sistemas de IA e a garantia de que os sistemas sejam auditáveis e responsáveis. Essa abertura foi criada para capacitar os usuários e manter a confiança do público nas tecnologias de IA.
Impacto sobre as empresas
Para as empresas que operam na UE ou que lidam com dados de cidadãos da UE, a Lei de IA apresenta desafios e oportunidades. As empresas precisarão avaliar seus sistemas de IA para determinar sua categoria de risco e garantir que estejam em conformidade com as obrigações relevantes. Isso pode envolver ajustes significativos em seus processos de desenvolvimento e implantação.
Os requisitos de conformidade podem significar investimentos necessários em novos sistemas e processos, especialmente para aqueles que estão implantando sistemas de IA de alto risco. No entanto, regulamentações claras podem proporcionar um ambiente estável para a inovação, incentivando o investimento em tecnologias de IA que sejam compatíveis e confiáveis. Como a UE frequentemente estabelece precedentes em padrões regulatórios (como visto no GDPR), as empresas se beneficiarão do alinhamento com as regulamentações da UE, possivelmente obtendo uma vantagem competitiva nos mercados globais.
Legislação semelhante fora da UE
O reconhecimento do profundo impacto da IA não se limita à Europa; globalmente, os países estão desenvolvendo suas próprias estruturas para regulamentar a IA, refletindo uma tendência mundial de governança responsável da IA.
Nos Estados Unidos, foi adotada uma abordagem setorial, com várias agências federais emitindo diretrizes específicas para seus domínios. A Algorithmic Accountability Act (Lei de Responsabilidade Algorítmica) foi proposta para exigir que as empresas avaliem os impactos dos sistemas de decisão automatizados e mitiguem quaisquer riscos. Embora ainda não tenha sido promulgada, essa legislação significa uma conscientização crescente da necessidade de supervisão da IA.
O Reino Unido, após o Brexit, está elaborando sua estratégia de IA com foco na regulamentação pró-inovação. O Reino Unido planeja introduzir uma estrutura regulatória que incentive a inovação e, ao mesmo tempo, trate dos riscos associados à IA. Essa abordagem busca equilibrar a posição do Reino Unido como líder no desenvolvimento de IA com a necessidade de proteger os interesses públicos.
Na China, o governo implementou regulamentações sobre IA, com foco especial na segurança dos dados e no uso ético da IA. A abordagem da China combina a supervisão rigorosa do governo com um impulso agressivo para a liderança tecnológica em IA. As regulamentações enfatizam a necessidade de a IA se alinhar aos valores sociais e aos interesses de segurança nacional.
No Canadá, o governo propôs a Lei de Inteligência Artificial e Dados (AIDA), com o objetivo de regulamentar os sistemas de IA de alto impacto e garantir que eles sejam desenvolvidos e implantados de forma responsável. A lei exigiria que as organizações adotassem medidas para mitigar os riscos e estabelecer mecanismos de supervisão.
Na Austrália, o governo lançou a AI Ethics Framework, que fornece princípios voluntários para orientar empresas e governos na concepção, desenvolvimento e implementação de IA. Embora não seja juridicamente vinculativo, ele reflete o compromisso da Austrália em garantir que as tecnologias de IA sejam seguras, protegidas e confiáveis.
No Japão, o governo promoveu os Princípios Sociais da IA centrada no ser humano, com foco em princípios como direitos humanos, privacidade e promoção da inovação. A abordagem do Japão enfatiza a coexistência harmoniosa de humanos e IA, com o objetivo de promover a confiança e a aceitação do público.
No Brasil, o governo está considerando o Marco Legal da Inteligência Artificial, que busca estabelecer princípios, direitos e deveres para o desenvolvimento e a aplicação da IA. A estrutura se concentra em promover a inovação e, ao mesmo tempo, garantir o respeito aos padrões éticos e aos direitos fundamentais.
Na África do Sul, como parte do crescente interesse do continente africano em IA, o governo começou a explorar o potencial da IA e as respostas regulatórias necessárias. A Comissão Presidencial sobre a Quarta Revolução Industrial recomendou o desenvolvimento de uma política abrangente e de uma estrutura legislativa para a IA, com foco no crescimento inclusivo e em considerações éticas.
Essas iniciativas são de todos os continentes e destacam um movimento global no sentido de estabelecer estruturas regulatórias que equilibrem a inovação com considerações éticas e gerenciamento de riscos. A abordagem de cada país reflete seu contexto socioeconômico exclusivo, tradições jurídicas e prioridades estratégicas, contribuindo para um cenário global diversificado de governança de IA.
Olhando para o futuro
A Lei de IA ainda está em discussão e sujeita a alterações. Ela deve ser aprovada pelo Parlamento Europeu e pelo Conselho antes de se tornar lei. Uma vez adotada, um período de transição permitirá que as partes interessadas se adaptem às novas regulamentações. A integração com o GDPR, o NIS2 e o DORA ressalta a abordagem holística da UE em relação à regulamentação, garantindo que os sistemas de IA não sejam apenas inovadores, mas também seguros, transparentes e respeitem os direitos individuais.
Principais conclusões
- A UE está liderando o caminho para a criação de uma legislação abrangente de IA com a proposta de AI Act.
- A Lei de IA complementa outras regulamentações, como GDPR, NIS2 e DORA, criando uma estrutura coesa para proteção de dados, segurança cibernética e resiliência operacional.
- Uma abordagem baseada em riscos categoriza os sistemas de IA em riscos inaceitáveis, altos, limitados e mínimos.
- A legislação busca proteger os direitos fundamentais, promover a confiança, fomentar a inovação e garantir a transparência.
- As empresas devem se preparar para cumprir as novas obrigações, que podem afetar as estratégias de desenvolvimento e implantação.
- Esforços regulatórios semelhantes estão em andamento globalmente, refletindo um reconhecimento mundial da necessidade de uma governança responsável de IA.
- Manter-se informado e engajado no processo legislativo é fundamental para as organizações afetadas por essas mudanças.
Ao compreender a história e os objetivos da legislação de IA da UE e sua relação com outras estruturas regulatórias, as empresas podem navegar pelo novo ambiente regulatório de forma eficaz e contribuir para o desenvolvimento de tecnologias de IA que sejam inovadoras e alinhadas aos valores sociais.
Para saber mais sobre o que a estrutura de IA da UE significará para você, entre em contato com um de nossos especialistas dedicados. Nós o ajudaremos a preparar sua empresa para as mudanças descritas acima e a utilizar a IA de forma legal e eticamente responsável.