O Google anunciou o lançamento do SAIF (Secure AI Framework), um novo framework de segurança para IA. A intenção é criar medidas de segurança robustas em um setor onde a IA é cada vez mais integrada em produtos ao redor do mundo.
Segundo a empresa, o SAIF foi inspirado nas melhores práticas de segurança que já aplica no desenvolvimento de softwares, como revisão, teste e controle da cadeia de fornecimento. A Big Tech afirma ainda que levou em conta os riscos específicos para sistemas de inteligência artificial e a compreensão de megatendências de segurança.
O SAIF é projetado para ajudar a mitigar riscos específicos para sistemas de IA, através de uma abordagem para cibersegurança aberta e colaborativa, ou seja, é necessário haver um comprometimento no compartilhamento de informação sobre as ameaças para que outros também possam mitigar e responder a ciberataques. Dentre os riscos que o framework foi feito para mitigar, é possível citar o roubo do modelo, envenenamento de dados de treinamento, injeção de entradas maliciosas e extração de informações confidenciais nos dados de treinamento.
O novo lançamento do Google apresenta seis elementos principais:
- expansão de uma fundação forte de segurança para o ecossistema de IA;
- detecção e resposta estendida para trazer a IA para o universo de ameaças de uma organização;
- defesas automatizadas para acompanhar ameaças existentes e novas;
- harmonização do controle de níveis de plataformas para garantir segurança constante por toda organização;
- adaptação de controles para ajustar mitigações e criar loops de feedback mais rápidos para implantação de IA;
- contextualização de riscos de sistema de IA em processos de negócios.
De acordo com o anúncio, “um framework nos setores público e privado é essencial para ter certeza que atores responsáveis estão resguardando a tecnologia que suporta os avanços em IA, de modo que quando modelos de IA forem implementados, eles sejam seguros por padrão.”
André Morel | Itshow