O avanço tecnológico continua a moldar o futuro dos negócios e da sociedade, e um exemplo claro disso é o impacto que a inteligência artificial (IA) já tem no nosso dia-a-dia. À medida que esta tecnologia evolui, aproximamo-nos de um conceito ainda mais ambicioso: o da “inteligência artificial geral” (IAG), uma forma de IA que poderá igualar a inteligência e a capacidade cognitiva de um ser humano. Diferente das IAs atuais, que são especializadas em tarefas específicas, uma IAG seria capaz de aprender, raciocinar e adaptar-se a uma variedade quase infinita de contextos e desafios, assim como os seres humanos o fazem. Este possível avanço levanta questões fundamentais sobre os riscos e benefícios de uma IA tão poderosa, que poderá transformar profundamente áreas como a economia, a segurança, a privacidade e os direitos individuais.
Governos de todo o mundo, incluindo a União Europeia e a China, têm debatido a necessidade de regulamentar o desenvolvimento da IA para garantir que esta tecnologia avance de forma segura, responsável e ética. A União Europeia, em particular, tem-se posicionado como líder global nesta área, com a recente legislação sobre a IA, AI Act – a primeira estrutura legal do mundo que aborda explicitamente os riscos associados à tecnologia e define normas de segurança.
Contudo, a eleição de Donald Trump como presidente dos Estados Unidos traz uma nova incógnita para o futuro da IA e da sua regulação. Durante a sua campanha, Trump criticou as regras rigorosas propostas pelo governo de Joe Biden, incluindo a ordem executiva de 2023, que visava estabelecer diretrizes para regulamentar a IA nos EUA. Se Trump cumprir a sua promessa de desmantelar estas proteções, as implicações poderão ser vastas, não apenas para o mercado interno, mas também para a evolução global da IA.
A Necessidade de Regras para a IA
A Lei da IA da União Europeia foi desenvolvida com o objetivo de garantir que os cidadãos possam confiar na tecnologia, abordando especificamente os riscos que sistemas de IA avançados podem representar. Embora a maioria das aplicações de IA sejam seguras, existem outras que apresentam riscos substanciais, como a opacidade nas decisões dos sistemas e a possibilidade de discriminação em áreas como contratação e atribuição de benefícios públicos.
As novas regras europeias visam:
- Abordar riscos criados pelas aplicações de IA em setores específicos.
- Proibir práticas de IA que representem riscos inaceitáveis.
- Estabelecer requisitos claros para sistemas de IA de alto risco.
- Exigir uma avaliação de conformidade antes da introdução de sistemas de IA no mercado.
- Implementar uma fiscalização contínua para garantir que as normas sejam seguidas.
Com estas novas regras, a União Europeia, pretende garantir um ambiente em que a IA seja desenvolvida e utilizada de forma ética e responsável, promovendo a confiança na tecnologia.
A Ordem Executiva de Biden: Prevenção de Riscos
A ordem executiva de Biden, implementada em 2023, procurou abordar vários aspetos relacionados com o avanço da IA, incluindo a implementação de testes rigorosos para sistemas de IA, e a marcação (watermarking) de fotos e vídeos gerados por IA para combater fraudes e desinformação. A sua principal intenção era garantir a privacidade dos cidadãos e proteger dados sensíveis. Para muitos, esta postura alinha-se com a abordagem cautelosa adotada pela União Europeia, que visa criar uma “referência global” para as normas de segurança da IA.
No entanto, com a possível desregulamentação sob a administração de Trump, o cenário poderá mudar drasticamente. A desregulamentação poderá abrir portas à inovação tecnológica, mas também poderá trazer consigo riscos consideráveis. O enfraquecimento das proteções permitirá a criação de sistemas de IA sem a devida supervisão, aumentando os riscos de exploração irresponsável de dados, disseminação de desinformação e até a manipulação indevida da tecnologia.
O Impacto da Desregulamentação
Se Trump optar por enfraquecer as proteções existentes, a indústria de IA poderá experienciar um crescimento acelerado. Startups e grandes empresas, como a OpenAI e outras iniciativas de Elon Musk, poderão beneficiar deste ambiente mais liberal, com menos obstáculos regulatórios, o que poderá reduzir custos e acelerar o processo de criação de novas tecnologias. Contudo, a falta de regulamentação poderá também trazer inovações perigosas, com um impacto potencialmente negativo para a segurança e para os direitos de todos os cidadãos.
Organizações como o MIT têm vindo a alertar para os perigos de uma regulação insuficiente. O uso irresponsável de IA poderá agravar as desigualdades sociais, comprometer a privacidade e até potenciar o seu uso indevido em áreas como a saúde pública e processos judiciais. Além disso, a automatização de funções poderá resultar numa destruição em massa de empregos, criando uma crise no mercado de trabalho.
Embora a desregulamentação em nível federal seja uma possibilidade, estados como a Califórnia, conhecidos pelo seu ambiente regulatório rigoroso, poderão manter as suas próprias normas, o que criaria uma realidade de “regulação desigual” nos Estados Unidos. Este cenário geraria desafios legais e operacionais para as empresas de IA, que teriam de lidar com diferentes normas em várias regiões do país.
Inovação vs Segurança
O avanço da IA apresenta uma dicotomia clara: por um lado, a tecnologia pode transformar os negócios, automatizando tarefas repetitivas e aumentando a eficiência em áreas como atendimento ao público e criação de conteúdo. Por outro, à medida que os sistemas de IA se tornam mais sofisticados e integrados com o nosso quotidiano, o aparecimento de riscos para a nossa segurança e privacidade serão inevitáveis.
A grande questão é: ao enfraquecer as regulamentações sobre IA, o governo americano estará a priorizar a inovação a qualquer custo? Desregulamentar a tecnologia poderá acelerar a inovação e poderá colocar os EUA na vanguarda da indústria tecnológica, mas também poderá gerar riscos imensos, como a exploração indevida de dados e a disseminação de desinformação. A inovação, embora seja essencial, deve ser sempre acompanhada de uma regulação eficaz para garantir que a evolução da IA ocorra de forma segura e responsável, respeitando os direitos dos cidadãos e protegendo a privacidade.
Em última análise, o futuro da IA dependerá da capacidade de os governos encontrarem um equilíbrio entre a inovação e a regulamentação. Como os Estados Unidos, a União Europeia e outras potências globais lidam com estas questões nos próximos anos, poderá determinar não só a evolução da IA, mas também a sua aplicação a nível global.