fbpx

Podemos confiar em IA? Especialista em inteligência cibernética responde

Para Mark Bailey sistemas de IA tem uma limitacao significativa grande parte de seu funcionamento interno e impenetravel
(Imagem: Reprodução)

inteligência artificial (IA) é algo alienígena – um sistema inteligente sobre o qual as pessoas têm pouco entendimento. Os humanos são em grande parte previsíveis para outros porque compartilham a experiência humana. Mas isso não se estende à IA, mesmo que pessoas a tenham criado.

  • Para Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), IA é algo alienígena, porque seu funcionamento interno é em grande parte impenetrável;
  • Isso a torna fundamentalmente inexplicável e imprevisível para os humanos, segundo o especialista;
  • Para ele, a confiança num sistema ou pessoa depende da previsibilidade do comportamento – esse princípio não se aplica à IA;
  • O professor também explicou que sistemas de IA podem ter trilhões de parâmetros, o que torna as razões por trás de suas decisões frequentemente “opacas”;
  • Ao contrário dos humanos, a IA não ajusta seu comportamento com base em percepções sociais ou normas éticas. Sua tomada de decisão é fundamentada em um modelo estático do mundo determinado pelos dados de treinamento, segundo Bailey.
  • Para aumentar a confiança na IA, é importante envolver humanos nas decisões tomadas pelos sistemas. No entanto, o especialista acredita que, a longo prazo, isso pode se tornar insustentável.

Essa é a tese defendida por Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), num artigo publicado no The Conversation. Segundo o especialista, os sistemas de IA têm uma limitação significativa: grande parte de seu funcionamento interno é impenetrável.

“Isso os torna fundamentalmente inexplicáveis e imprevisíveis. Além disso, construir sistemas de IA que se comportam da maneira que as pessoas esperam é um desafio significativo.”

Trecho do artigo escrito por Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), e publicado no The Conversation

Confiança e IA

Destaque bots apostas
(Imagem: Thinkstock)

A confiança se baseia na previsibilidade. Ela depende da sua capacidade de antecipar o comportamento dos outros. Por exemplo, se você confia em alguém e essa pessoa não faz o que você espera, então sua percepção da confiabilidade nela diminui.

Muitos sistemas de IA são construídos em redes neurais de aprendizado profundo, que em alguns aspectos emulam o cérebro humano. Essas redes têm “neurônios” interconectados com variáveis ou “parâmetros” que afetam a força das conexões entre os neurônios.

À medida que uma rede ingênua é apresentada a dados de treinamento, ela “aprende” a classificar os dados ajustando esses parâmetros. Dessa forma, o sistema de IA aprende a classificar dados que não viu antes. Ele não memoriza o que cada dado é, mas sim prevê o que pode ser.

“Muitos dos sistemas de IA mais poderosos contém trilhões de parâmetros. Por causa disso, os motivos pelos quais os sistemas de IA tomam as decisões que tomam muitas vezes são opacos. Esse é o problema da explicabilidade da IA – a caixa-preta impenetrável da tomada de decisão da IA.”

Trecho do artigo escrito por Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), e publicado no The Conversation

Comportamento e expectativas

robos ia 1
(Imagem: thinkhubstudio/Shutterstock)

A confiança depende não apenas da previsibilidade, mas também de motivações normativas ou éticas. Normalmente, você espera que as pessoas ajam não apenas como você assume que vão agir, mas também como deveriam agir. Os valores humanos são influenciados pela experiência comum e o raciocínio moral é um processo dinâmico, moldado por padrões éticos e pelas percepções dos outros.

Ao contrário dos humanos, a IA não ajusta seu comportamento com base em como é percebida pelos outros ou ao aderir a normas éticas, segundo Bailey. Para o especialista, a representação interna do mundo pela IA é em grande parte estática, determinada pelos dados de treinamento.

“Seu processo de tomada de decisão é fundamentado em um modelo imutável do mundo, indiferente às interações sociais dinâmicas e matizadas que constantemente influenciam o comportamento humano. Pesquisadores estão trabalhando na programação de ética na IA, mas isso está se mostrando desafiador.”

Trecho do artigo escrito por Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), e publicado no The Conversation

Sistemas cruciais

Destaque trabalho IA
(Imagem: sdecoret/Adobe Stock)

Para o professor, uma maneira de reduzir a incerteza e aumentar a confiança é garantir que as pessoas participem das decisões tomadas pelos sistemas de IA. Este é o enfoque adotado pelo Departamento de Defesa dos Estados Unidos, por exemplo, que exige que em todas as tomadas de decisões de IA, um ser humano deve estar ou “no processo” ou “em cima do processo”.

“No processo” significa que o sistema de IA faz uma recomendação, mas um ser humano é necessário para iniciar uma ação. “Em cima do processo” significa que, enquanto um sistema de IA pode iniciar uma ação por conta própria, um monitor humano pode interrompê-la ou alterá-la.

“Embora manter os humanos envolvidos seja um ótimo primeiro passo, não estou convencido de que isso será sustentável a longo prazo. À medida que empresas e governos continuam a adotar a IA, o futuro provavelmente incluirá sistemas de IA aninhados, nos quais a tomada de decisões rápidas limita as oportunidades para as pessoas intervirem.”

Trecho do artigo escrito por Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), e publicado no The Conversation

Para Bailey, é importante resolver os problemas de explicabilidade e alinhamento antes que o ponto crítico seja alcançado – no qual a intervenção humana se torne impossível. “Nesse ponto, não haverá outra opção senão confiar na IA”, escreveu.

Evitar esse limiar é especialmente importante porque a IA está sendo cada vez mais integrada em sistemas críticos – por exemplo: redes elétricas, internet e sistemas militares.

“Em sistemas críticos, a confiança é primordial, e comportamentos indesejados podem ter consequências fatais. À medida que a integração da IA se torna mais complexa, torna-se ainda mais importante resolver problemas que limitam a confiabilidade.”

Trecho do artigo escrito por Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), e publicado no The Conversation
Compartilhe este conteúdo
B0DCF6

Conteúdos Relacionados

Siga a Ascenda Digital
Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore