por Rajesh Ganesan*
Nos últimos anos, a Inteligência Artificial (IA) vem desempenhando um papel significativo na transformação de operações de negócios em empresas de todos os tamanhos ao redor do mundo. No Brasil, por exemplo, o Instituto Avançado de Inteligência Artificial (AI2) foi fundado no início deste ano com o objetivo de aproximar pesquisadores e companhias privadas, os ajudando a entender mais profundamente a IA e outras tecnologias da nova era.
Embora a IA esteja ganhando mais terreno, ainda existem alguns desafios em relação à adoção de sistemas com essa tecnologia. De acordo com um estudo recente realizado pela Deloitte, 16% dos líderes de TI entrevistados classificaram questões relacionados a dados como o principal desafio em IA, acima de qualquer outro problema; e 39% listou dados entre as três principais áreas de preocupação.
As empresas que tentam alavancar a IA devem entender que os resultados dependem diretamente do volume, da qualidade e da diversidade dos dados a partir dos quais os sistemas de IA podem aprender de forma otimizada e contínua. Quanto melhor o aprendizado, mais precisas serão as predições, e é por isso que é extremamente importante que os dados permaneçam disponíveis.
Esse é fundamentalmente o maior desafio dos líderes de tecnologia que buscam impulsionar a IA: poder coletar, armazenar, manter e proteger os dados que os sistemas precisam. Enquanto o sistema de IA estiver em uso, toda a inteligência adquirida é armazenada como “modelos”.
Desafios de segurança da IA
Tanto os dados corporativos quanto os modelos de IA podem armazenar dados sensíveis, incluindo informações pessoais, e, portanto, tornar-se um alvo atraente para criminosos interessados em roubá-los. É essencial tratar esse conjunto de informações da mesma maneira que outros materiais confidenciais e criar múltiplas camadas de segurança, incluindo criptografia.
E, onde a criptografia dos dados impedir que os sistemas de IA sejam eficientes, as organizações devem buscar tecnologias como a criptografia homomórfica para equilibrar os benefícios do sistema de IA e a segurança da informação.
Abaixo estão os três problemas de segurança mais comuns relacionados à IA
Ataques adversários
Além de proteger a infraestrutura de armazenamento de dados, as organizações devem conhecer peculiaridades que podem ser exploradas pelos criminosos para enganar o sistema de IA.
A mais proeminente delas é o ataque adversário, que pode ser usado por um único ou por um grupo de invasores motivados a enganar intencionalmente um sistema de IA, fornecendo dados incorretos que resultam no sistema aprendendo erroneamente e aplicando esse aprendizado em seu eventual comportamento.
Mudanças não previstas
Também problemático é o fenômeno de deriva de conceito (do inglês concept drift), em que a inteligência adquirida em um modelo de IA baseado em dados operacionais podem mudar drasticamente, tornando o modelo irrelevante.
Qualquer predição ou ação subsequente, feita por um sistema de IA com base nesse modelo irrelevante, leva a problemas de segurança, como exposição, roubo ou até exclusão de dados.
A deriva de conceito também pode ser programada ao fornecer intencionalmente dados errados para aplicações de negócios, já que normalmente os sistemas de IA não possuem a inteligência para determinar se estão aprendendo a partir de uma fonte de dados certa ou errada.
Viés de engenharia humana
Igualmente importante é estar ciente de que os humanos podem projetar orientações no sistema de IA, também ao injetar intencionalmente dados injustos e não inclusivos nas aplicações de negócios, especialmente durante o treinamento do sistema de IA para a construção dos modelos. Fazendo isso, os hackers podem controlar o funcionamento da aplicação para causar viés de gênero, favoritismo, entre outros, para favorecê-los.
Uma maneira definitiva para as organizações se protegerem dos problemas acima é investir em “IA explicável”, que nada mais é do que a capacidade adicional de um sistema de IA de também justificar o por quê de suas várias previsões e ações, antes de realmente fazê-las.
Isso dá a chance de combater, em tempo real, fatores manipulados, como ataques adversários, desvios de conceito ou preconceitos plantados intencionalmente. Uma organização bem informada, com uma liderança bem-intencionada, entenderá as nuances de todos esses conceitos e a necessidade de investir em um sistema robusto para poder aproveitar totalmente os benefícios das tecnologias de IA.
*Rajesh Ganesan é Vice-presidente da ManageEngine