30 de janeiro de 2024
Por Nick Graham - Arquiteto de soluções - Sector público, Skyhigh Security
Numa era em que a inteligência artificial (IA) está a remodelar a paisagem global, a administração do Presidente Biden está a dar um passo monumental. Há três meses, o Presidente Biden emitiu uma ordem executiva que estabelece os primeiros regulamentos dos Estados Unidos sobre sistemas de IA. Esta medida pioneira visa aproveitar o potencial da IA e, ao mesmo tempo, atenuar os seus riscos, nomeadamente nos domínios da segurança nacional e da proteção dos consumidores.
A essência da ordem executiva
A ordem executiva centra-se nos produtos de IA mais avançados, exigindo testes rigorosos para garantir que não possam ser explorados para produzir armas biológicas ou nucleares. A diretiva da Casa Branca é clara: proteger os americanos dos potenciais perigos que acompanham os rápidos avanços da tecnologia de IA. Estas precauções não se limitam apenas à defesa; estendem-se ao domínio digital, onde a criação de "deep fakes" e de desinformação convincente está a tornar-se cada vez mais frequente.
O momento desta ordem é estratégico, precedendo uma importante conferência sobre segurança da IA organizada pelo primeiro-ministro britânico, Rishi Sunak. Os EUA não são os primeiros a aventurar-se na regulamentação da IA; seguem os passos da União Europeia e de países como a China e Israel. No entanto, os regulamentos do Presidente Biden são apontados como os mais abrangentes e agressivos a nível mundial.
Impacto na tecnologia e na segurança
As novas regras dos EUA, algumas das quais entrarão em vigor dentro de 90 dias, terão profundas implicações para o sector da tecnologia. Estabelecem pela primeira vez normas de segurança, proteção e defesa do consumidor, influenciando a forma como as empresas desenvolvem e implementam tecnologias de IA. Isto é particularmente relevante à luz das recentes restrições à exportação de chips de alto desempenho para a China, com o objetivo de travar o desenvolvimento de grandes modelos de linguagem como o ChatGPT.
Estes regulamentos inovadores não estão isentos de desafios. São esperados obstáculos jurídicos e políticos, especialmente porque a ordem visa principalmente futuros sistemas de IA, deixando ameaças imediatas, como a utilização indevida de chatbots para espalhar desinformação, relativamente sem resposta. Além disso, a aplicabilidade da ordem está limitada às empresas americanas, o que coloca desafios diplomáticos num ambiente global de desenvolvimento de software.
Uma abordagem multifacetada à segurança da IA
A ordem executiva é abrangente, dando instruções a vários departamentos, incluindo o da Saúde e dos Serviços Humanos, para estabelecerem normas de segurança claras para a utilização da IA. Também exige estudos sobre o impacto da IA no mercado de trabalho e directrizes para evitar a discriminação algorítmica na habitação, contratação e benefícios federais.
A Comissão Federal do Comércio (FTC) deverá desempenhar um papel crucial como cão de guarda da IA, com Lina Khan, a presidente da FTC, a assinalar uma abordagem mais agressiva. A indústria tecnológica tem demonstrado apoio à regulamentação, com grandes empresas como a Microsoft, a OpenAI, a Google e a Meta a aceitarem compromissos voluntários de segurança.
Equilíbrio: Inovação e regulamentação
A abordagem do Presidente Biden à regulamentação da IA procura equilibrar a necessidade de inovação com a necessidade de criar salvaguardas contra o abuso. Isto implica apoiar as empresas americanas na corrida global à IA, assegurando simultaneamente que estas poderosas ferramentas sejam utilizadas de forma responsável e ética.
Um Memorando de Segurança Nacional separado, esperado para o próximo verão, irá detalhar regulamentos especificamente destinados a proteger a segurança nacional. Estas incluirão provavelmente medidas públicas e confidenciais para evitar a utilização indevida de sistemas de IA por nações estrangeiras ou actores não estatais em áreas como a proliferação nuclear e a guerra biológica.
O caminho a seguir
A iniciativa da administração Biden representa um primeiro passo crucial para enfrentar os desafios multifacetados colocados pela IA. Embora estabeleça um precedente global, também reconhece a natureza dinâmica da tecnologia de IA, sugerindo uma abordagem cautelosa à regulamentação. Esta iniciativa histórica sublinha a necessidade de um diálogo e adaptação contínuos à medida que navegamos nas águas desconhecidas do desenvolvimento da IA e das suas implicações para a sociedade.
À luz destes desenvolvimentos significativos, é crucial que organizações como a Skyhigh Security liderem o caminho na adaptação e resposta a estes regulamentos. Temos de ser proactivos para garantir que as nossas soluções de IA não só cumprem as novas normas, como também estabelecem a fasquia para uma utilização responsável e segura da IA.
Em Skyhigh Security, encorajamo-lo a participar ativamente nestas alterações regulamentares. Mantenha-se informado sobre a forma como estes regulamentos irão afetar as suas operações e estratégias. Pense em como pode tirar partido da IA de forma responsável para melhorar as suas medidas de cibersegurança e proteger-se contra a evolução das ameaças digitais. Convidamo-lo a participar nos debates e fóruns organizados por Skyhigh Security, onde os especialistas analisarão as implicações destes regulamentos e oferecerão informações sobre a sua integração na sua estrutura de cibersegurança.
Vamos aproveitar esta oportunidade para sermos pioneiros num futuro em que a IA melhora as nossas posturas de segurança. Ao trabalharmos em conjunto, podemos garantir que a IA é uma força para o bem, fortalecendo as nossas defesas contra as ciberameaças, respeitando simultaneamente os limites éticos. Junte-se a nós nesta viagem em direção a um futuro mais seguro e capacitado para a IA.
Voltar aos blogues