O mundo está a entrar numa nova era de possibilidades ilimitadas com a Inteligência Artificial (IA) generativa, que está a revolucionar a inovação com inúmeras aplicações. À medida que a tecnologia transforma rapidamente os negócios e o mundo em geral, é essencial partilhar como se pode utilizar a IA generativa de forma segura. Independentemente das soluções de IA que escolher, este artigo vai ajudá-lo a usar a IA de forma segura e responsável, mantendo os dados seguros e privados.
A Microsoft adotou uma abordagem holística para a segurança da IA generativa, considerando a tecnologia, os seus utilizadores e a sociedade em geral em quatro áreas de proteção:
- Privacidade e propriedade dos dados
Com políticas transparentes de proteção e privacidade de dados, a Microsoft garante que os dados dos clientes permanecem privados. Assim, o cliente mantém o controlo sobre as suas informações, que nunca serão usadas para treinar modelos fundamentais ou compartilhadas com a OpenAI ou outros clientes da Microsoft sem a permissão autorizada do utilizador.
- Transparência e responsabilidade
A IA generativa às vezes comete erros. Para garantir que o conteúdo criado pela IA generativa seja credível, é essencial que a IA:
- use fontes de dados precisas e autorizadas;
- mostre raciocínio e fontes para manter a transparência;
- incentive um diálogo aberto com a provisão de feedback.
- Orientações e políticas para os utilizadores
Para mitigar a dependência excessiva, a Microsoft incentiva os utilizadores a refletir sobre as informações fornecidas pela IA generativa, usando uma linguagem cuidadosamente considerada e referenciando fontes citadas. Para além disso, a Microsoft está atenta ao uso indevido da IA, para que os utilizadores não a envolvam em ações prejudiciais, como gerar código perigoso ou instruções para construir uma arma. Assim, incorporou protocolos de segurança profundos no sistema, estabelecendo limites claros sobre o que a IA pode e não pode fazer para manter um ambiente de uso seguro e responsável.
Para se preparar para as ameaças à IA generativa, a Microsoft atualizou o requisito de Modelagem de Ameaças SDL para considerar ameaças específicas de IA e aprendizagem automática. Para além disto, regista e monitoriza as interações com os seus modelos de linguagem de grande escala (Large Language Model) para identificar ameaças. A Microsoft submete todos os produtos de IA generativa a vários testes de segurança para procurar vulnerabilidades e garantir que têm estratégias de mitigação adequadas em vigor.
Inteligência Artificial segura para todos
As taxas de adoção e a procura por aplicações de IA continuam a crescer exponencialmente. Isto pode ser um movimento estratégico que pode melhorar uma organização e tornar as equipas mais eficientes. Veja como começar:
- Passo 1 – Implementar um modelo de segurança Zero Trust
O modelo de segurança
Zero Trust usa inteligência e análises avançadas para garantir que cada pedido de acesso seja totalmente autenticado, autorizado e encriptado antes de conceder o acesso. Em vez de assumir que tudo atrás do firewall corporativo é seguro, o modelo Zero Trust assume a possibilidade de violação e verifica cada pedido como se derivasse de uma rede aberta.
- Passo 2 – Adotar padrões de cyber hygiene
O Relatório de Defesa Digital da Microsoft 2023 mostra que a higiene básica de segurança ainda protege contra 99% dos ataques. Cumprir os padrões mínimos de higiene cibernética é essencial para proteger contra ameaças cibernéticas, minimizar riscos e garantir a viabilidade contínua do negócio.
- Passo 3 - Estabelecer um plano de segurança e proteção de dados
Para o ambiente atual, uma abordagem de defesa em profundidade oferece a melhor proteção para fortalecer a segurança dos dados. Existem cinco componentes para esta estratégia, todos os quais podem ser implementados na ordem que melhor se adequar às necessidades únicas de uma empresa e aos possíveis requisitos regulamentares.
- Passo 4 - Estabelecer uma estrutura de governança de IA
Para que as organizações estejam preparadas para a IA, é crucial que implementem processos, controlos e estruturas de responsabilidade que governem a privacidade dos dados, a segurança e o desenvolvimento dos sistemas de IA, incluindo a implementação de padrões de IA responsável.
Aproveite todo o potencial da Inteligência Artificial, mas faça-o de maneira segura!