fbpx

Artigo

PUBLICAÇÃO

A IA ChatGPT e a Segurança da Informação

Postado por 

IA ChatGPT e a Segurança da Informação

Recentemente, um estudo divulgado pela Progress indicou que 57% das organizações no Brasil sofrem com o enviesamento de dados e, no mundo, 78% dos decisores empresariais e de TI, acreditam que o viés de dados se tornará uma preocupação maior à medida que o uso de Inteligencia Artificial e Aprendizado de Máquina (Artificial Intelligence e Machine Learning – AI ou IA/ML) aumenta, mesmo assim, apenas 13% deles estão atualmente tratando o tema, com um processo de avaliação contínuo.

Como já era de se esperar, segundo estudo realizado pela FICO, líder mundial em software de análise preditiva, a questão “ética” da Inteligência artificial não está acompanhando a crescente demanda por produtos e ferramentas que utilizam a tecnologia.

No que tange a Serviços financeiros, a grande maioria indicou que o uso responsável dessas tecnologias não está na prioridade da maioria das empresas, mesmo tendo aumentado seu uso significamente no último ano.

Durante o evento Dell Technologies World, realizado no dia 24/05/2023, Frank Abagnale – o notório ex-golpista norte-americano e hoje consultor de segurança e autor, famoso por ser retratado no filme “Prendame Se For Capaz” (2002), estrelado por Leonardo DiCaprio – deixou claro, em sua palestra, que “Nunca haverá nenhuma tecnologia, nem mesmo a inteligência artificial, que possa derrotar a engenharia social”. Por outro lado, ao escutar seus relatos, fica claro que a IA passa a ser uma ferramenta sem limites para criminosos, que já estão explorando falhas em ferramentas para desenvolver malware e e-mails de phishing, mesmo diante de restrições antiabuso.

Uma das primeiras ferramentas de IA/ML a ficar famosa para o público em geral foi o “ChatGPT“. Esta é uma ferramenta treinada por humanos, com uma quantidade incrível de dados para poder correlacionar o que aprendeu com a pergunta recebida, concatenando informações de diversas fontes, inclusive de fontes desconsideráveis.

Em fevereiro de 2023, a Check Point Research (CPR) divulgou ter descoberto que os hackers, com o intuito de depurar e melhorar o código malicioso que lançam, estão aumentando o uso de bots do Telegram com o objetivo de criar uma nova metodologia, que burle as restrições da plataforma.

Respondendo rapidamente, a OpenAI criou barreiras e restrições, na tentativa de impedir a criação de conteúdo malicioso, porém, a CPR alertou para uma intensa atividade em fóruns na deepweb, que revelam que os cibercriminosos estão trabalhando para contornar essas restrições. 

IA ChatGPT e a Segurança da Informação

Aplicações práticas da IA em softwares

Com a finalidade de tornar o trabalho mais rápido, várias atividades e códigos podem ser sugeridos pela AI/ML:

  • A AI/ML pode sugerir diferentes formas de desenvolver e implementar um código;
  • Testes unitários – para testar um software, é preciso isolar trechos ou módulos do código para testá-lo. A AI/ML, pode ajudar na orientação à criação de objetos utilizados em desenvolvimento de software (mocks) para simular comportamentos de forma controlada;
  • Provas de conceito (PoC, Proof of Concept) podem ser sugeridas pela AI/ML.

Vale ressaltar que não se pode garantir que as sugestões apresentadas pela ferramenta são completamente eficazes, portanto, a sua utilização sem a devida análise e depuração caracterizam um risco à qualidade e eficácia do software atualizado e/ou gerado.

Aplicações da IA nas atividades das empresas

Como uma revolução na maneira de se trabalhar, apontando como sendo uma nova era, a IA/ML vem agilizando processos e reduzindo prazos e custos. Mas, como citado, quando nos referimos aos softwares, podemos estar sujeitos a vulnerabilidades significativas, gerando análises erradas e, com isto, afetando a Confidencialidade, Integridade e Disponibilidade das informações.

Quanto mais alimentamos as ferramentas com conhecimento, cibercriminosos a alimentam com brechas, transformando uma simples consulta em possibilidade de alimentação por informações incorretas, ou mesmo perigosas.

IA ChatGPT e a Segurança da Informação

No final de março, um erro em uma destas ferramentas contribuiu para o vazamento de históricos de conversas de usuários e, também, de dados pessoais e financeiros.

Este erro acarretou na infração de leis nacionais e internacionais de privacidade, como a LGPD e a GDPR, bem como pode ter comprometido informações confidenciais de empresas e seus produtos e segredos gerenciais estratégicos.

Qualquer software embarcando IA precisa ser estudado e acompanhado pela equipe de Segurança da Informação. Ataques de injeção de código, de negação de serviço, ou mesmo roubo de informações podem ser suscetíveis a qualquer integração de uma IA a um chatbot.

Os controles de Hackers ou usuários mal-intencionados podem explorar falhas, ou vulnerabilidades no sistema de inteligência artificial para obterem o acesso não autorizado, e isso acontece, muitas vezes, por conta do desconhecimento dos usuários – que, na prática, são o elo mais fraco dessa cadeia.

Por isso, qualquer plano de proteção tem que ter o usuário como protagonista e prever constantes treinamentos de conscientização a respeito do bom comportamento digital. Isso precisa ser a prioridade da sua empresa na lista das medidas preventivas, sem deixar de lado as políticas de acesso e de controle mais rigorosas, tais como estratégia multi fator de autenticação e o indispensável monitoramento de ameaças.

Por fim, nunca é demais ressaltar que a IA e o Chat GPT têm o potencial de agilizar e melhorar muitas atividades cotidianas, mas, é importante utilizar essas tecnologias de forma ética e cuidadosa, garantindo a privacidade e a segurança dos dados e, ainda, garantindo que as decisões tomadas por sistemas de IA sejam justas e transparentes. Dessa forma, entendemos que podemos aproveitar ao máximo seus benefícios, sem colocar em risco a reputação de empresas e de seus Clientes.

O Boston Consulting Group (BCG) desenvolveu um novo estudo e concluiu que existem cinco princípios em comum em empresas que desenvolveram um programa de IA responsável bem-sucedido. São eles:

1.    Liderança de RAI (inteligência artificial responsável) emponderada, dando suporte para implementar os programas da RAI em toda a organização;

2.    Construir e fomentar uma estrutura ética de IA, com princípios e políticas que devem ser incorporados à cultura e às políticas da empresa;

3.    Humanos na IA, com forte governança humana, nos regulamentos que estão sendo discutidos;

4.    Ferramentas e métodos para revisão, através de um ágil PDCA (PLAN-DO-CHECK-ADJUST, em português Planejar-Fazer-Verificar-Ajustar); e

5.    Participar do ecossistema de RAI.

REGULAMENTAÇÃO

Recentemente, uma carta aberta foi assinada por centenas de líderes da indústria de tecnologia, acadêmicos, entre outras figuras públicas.
Este documento, publicado pelo Center for AI Safety, alertava sobre os riscos que estamos sujeitos perante as indefinições regulamentares e falhas da atual tecnologia, tratando o tema como uma prioridade global, já que pode trazer riscos em escala social, desde pandemias, até mesmo guerras nucleares.

A Microsoft e OpenAI têm discutido políticas governamentais em torno da regulamentação da IA. O presidente da Microsoft, Brad Smith, buscou propor a constituição de uma agência americana separada para governança de IA , e apresentou, também, um plano de cinco etapas para a governança pública de IA.

IA ChatGPT e a Segurança da Informação

Recentemente, nos EUA, criou-se um subcomitê do Judiciário do Senado, juntamente com especialistas do setor – a incluindo o CEO da OpenAI, Sam Altman – , com o objeto de controlar a inteligência artificial à medida que avança na estrada do desenvolvimento, ameaçando a privacidade e os direitos à medida que avança.

Segundo o The Decoder, na última semana de junho, o CEO da Meta, Mark Zuckerberg, e o CEO da OpenAI, Sam Altman, expressaram apoio à Lei de IA da UE após discussões com o Comissário Europeu para o Mercado Interno, Thierry Breton. As discussões de Breton com Zuckerberg sugeriram alinhamento com a abordagem baseada em risco da UE para regulamentação de IA.

2 respostas

  1. Maravilhosa matéria. Temos que tomar cuidado com essas IA pena que pessoas mal intencionadas ultilizam de forma mal intencionada prejudicado assim todos.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Categorias

NEWSLETTER STUDIO ESTRATÉGIA​

Digite seu endereço de e-mail para assinar nosso blog e receber notificações de novas publicações por e-mail.

Tags

Entre em contato conosco

Quer saber mais sobre compliance?

SOBRE

COMPLIANCE

COMPLIANCE E TECNOLOGIA

STUDIO ESTRATÉGIA 2019 RUA ALMIRANTE ALVIM, Nº 595, CENTRO, FLORIANÓPOLIS/SC CEP: 88015-380

error: Conteúdo Protegido !!