O que deveriamos restringir na Inteligência Artificial (e o que não)?

Sob o guarda-chuva genérico do termo Inteligência Artificial estão abrigadas uma série de tecnologias diversas, como redes neurais, aprendizado de máquina, agentes virtuais, chatbots inteligentes, detecção automática de padrões em imagens, a inteligência artificial generativa, robôs e drones inteligentes, etc. Com o recente sucesso da IA Generativa e a disponibilização do ChatGPT e seus similares o acesso à IA foi tornado disponível para as massas. Mas será que todas as tecnologias de IA estão suficientemente desenvolvidas para podermos confiar nelas cegamente? E quando a IA falha e causa prejuizos? A culpa é do software ou da empresa que o desenvolveu ou utilizou? E quando tem vidas envolvidas que podem ser afetadas pela decisão de uma IA?

Chatbots inteligentes tem tendências políticas?

Os chatbots tem viés político realmente? Ou eles estão usando sua “inteligência” para fornecer respostas lógicas ou obvias? Lembrando que a capacidade de analisar e comparar grandes volumes de informações é um dos pontos mais fortes da Inteligência Artificial Generativa. Para tornar as coisas mais simples eu fiz uma pergunta simples ao Microsoft Copilot :

“UM GOVERNO DEVE PROCURAR O BEM ESTAR DA MAIORIA DE SUA POPULAÇÃO EM VEZ DO BEM ESTAR DE POUCOS SETORES DA SOCIEDADE ?”

É uma pergunta muito simples, certo? Vamos ver a resposta do Microsoft Copilot:

“Sim, **um governo deve buscar o bem-estar da maioria de sua população em vez do bem-estar de poucos setores da sociedade**. Esse princípio está alinhado com o conceito de **Estado de Bem-Estar Social**.

O **Estado de Bem-Estar Social** é caracterizado pela intervenção do Estado na vida social e econômica. Ele visa garantir oportunidades iguais para todos os cidadãos, distribuindo renda e fornecendo serviços públicos essenciais, como saúde e educação¹⁴. Algumas das principais características desse modelo incluem:

1. **Defesa dos Direitos dos Cidadãos**: O Estado de Bem-Estar Social defende o acesso de todos os cidadãos a serviços como saúde, educação e previdência social.

2. **Intervenção Estatal na Economia**: Rompendo com a visão de livre mercado, esse modelo preconiza a estatização de empresas em setores estratégicos e a criação de serviços públicos gratuitos e de qualidade.

3. **Regulação Econômica**: O Estado regula a economia para evitar monopólios, gerar emprego e renda, além de construir infraestruturas.

4. **Combate às Desigualdades Sociais**: O Estado de Bem-Estar Social busca promover o acesso igualitário aos serviços públicos para toda a população.

Esse modelo foi implementado em diversos países, como Noruega, Dinamarca e Suécia, como resposta à crise do liberalismo e como uma forma de proporcionar melhor qualidade de vida aos cidadãos¹. No entanto, é importante destacar que o Estado de Bem-Estar Social também enfrentou desafios e mudanças ao longo do tempo, como a crise do petróleo na década de 1970¹.

Em resumo, priorizar o bem-estar da maioria da população é fundamental para construir uma sociedade mais justa e igualitária.

Origem: conversa com o Bing, 07/04/2024

(1) Estado de Bem-Estar Social – Toda Matéria. https://www.todamateria.com.br/estado-de-bem-estar-social/.

(2) Estado de bem-estar social: como funciona – Brasil Escola. https://brasilescola.uol.com.br/…/estado-bem-estar….

(3) TRAJETÓRIA HISTÓRICA DAS POLÍTICAS PÚBLICAS NO BRASIL: instrumentos de …. https://monografias.brasilescola.uol.com.br/…/trajetori….

(4) 8 Funções Essenciais do Estado na Sociedade. https://maestrovirtuale.com/8-funcoes-essenciais-do…/.”

Artigos: Chatbots inteligentes têm tendências políticas. Quase sempre à esquerda (msn.com)

Alguém com posições políticas de direita pode achar que a IA teve viés político de esquerda embora ela própria não seria provavelmente capaz de dar uma resposta melhor. Desacreditar a opinião de um ser humano é mais fácil mas desacreditar a análise feita por uma IA, capaz de analisar milhões de informações rápidamente e fazer uma análise lógica e inteligente é bem mais difícil. E deve ser isso que está incomodando a direita. Mas também incomoda alguns setores da esquerda, políticos em geral. Atos e declarações de políticos serem analisadas por uma IA que não é propensa a opiniões demagógicas também deve ser muito incômodo para eles.

No caso da consulta que fizemos ao Microsoft Pilot vemos pelas fontes que ele citou que ele se baseou em alguns artigos acadêmicos do Brasil. E se a consulta tivesse sido feita na Argentina ou nos Estados Unidos, a conclusão dele seria a mesma? Ou seja ele utilizaria outras fontes e poderia levar a outras conclusões parecidas ou então diversas. Se estivessemos fazendo um trabalho acadêmico, sem a ajuda da IA e fizessemos pesquisa de artigos no Google ou Bing no Brasil, lêssemos os artigos e tirassemos nossas conclusões, estas teriam teor de 100% de verdade ou seria apenas a consequência lógica das fontes que consultamos? O Microsoft Copilot tem acesso à web e tem condições de procurar por artigos mais recentes. Como a IA generativa é treinada com material já existente o resultado do aprendizado vai depender da maioria dos artigos com os quais ele aprendeu. Escrever artigos que tem como foco o beneficio de um modo amplo da população são mais populares e comuns em comparação com artigos que defendem o privilegio de uns poucos, o que nos leva a desconfiar que as conclusões da análise da IA são lógicas com base no que ele aprendeu e se elas tem um viés mais para a esquerda não é culpa dela mas da humanidade em si, que produziu mais material que poderia ser considerado por muitos como sendo de esquerda.

O que eu posso concluir disso? Que embora a IA Generativa (IAG) represente um grande avanço e possa me economizar muito tempo em pesquisa e análise, ela não pode ser considerada como uma opinião 100% infalível, seu conhecimento reflete apenas o material que nós temos produzido ao longo da história. Termos que levar em conta isso nas nossas interações e consultas à IAG.

O Uso da Inteligência Artificial na Guerra

Com este tipo de uso da inteligência artificial sim é que a sociedade precisa estar preocupada e discutir. O uso da IA para determinar alvos de guerra mesmo existindo probabilidade alta de morte de inocentes. Qual é a precisão ou eficácia das armas guiadas por inteligência artificial? Se em um ataque com mísseis guiados por IA o índice de falha, traduzido na perda de vidas inocentes, da ordem de 10%, é considerado aceitável? Claro que não, mesmo assim continuam sendo usadas. Em caso de perda de vidas inocentes, a culpada é a IA, que “precisa ser aperfeiçoada” ou são os comandantes que sabendo das falhas autorizaram os ataques e perda de vidas inocentes. A IA é apenas uma ferramenta, mas que comanda sua utilização são seres humanos, que sabendo destes problemas usam este tipo de armamento mesmo assim. Então são estes que devem ser responsabilizados por eventuais crimes de guerra. Recentemente soubemos de um bombardeio em Gaza com a perda de muitas vidas inocentes, realizadas com armamento guiado por IA. Se a sociedade não cobrar de seus governantes estes continuaram por este caminho e em algum momento as próprias vítimas poderão ser a sociedade e não uma população de um país considerado inimigo.

https://www.instagram.com/p/C5YXTIbNW99/…

INSTAGRAM

Curtir

Comentar

Reconhecimento facial pela Polícia

Uso de tecnologia de IA por autoridades policiais têm levado em muitos casos à prisão de inocentes. Estes programas têm apresentado viés racista. Aqui no Brasil já aconteceram casos de pessoas que foram injustamente detidas pela Polícia por causa da IA ter concluído erradamente que esta era um criminoso procurado causando danos morais, psicológicos e muito sofrimento. As principais vítimas destes erros tem sido pessoas humildes e pessoas da raça negra. A camada mais privilegiada da sociedade dificilmente será vítima deste tipo de erro e como os principais afetados são da camada mais pobre, podem estar achando que este tipo de erro é “tolerável” enquanto está sendo aperfeiçoada esta tecnologia. Este assunto sim tem que ser discutido pela sociedade como um todo e o governo.

Sistema de reconhecimento facial para prender tem viés racista (conjur.com.br)

Privacidade de Dados

É urgente que as aplicações que utilizem Inteligência Artificial sejam transparentes e respeitem a privacidade dos dados dos usuários. Os usuários não deveriam ter suas interações com estas aplicações armazenadas ou utilizadas para treinamento das aplicações que utilizam “aprendizado de máquina” ou Machine Learning.

Algumas empresas como a ChatGPT dá a opção, não muito clara, dos usuários não terem registrados os dados de suas interações nem seus dados pessoais. Essa deveria ser a opção PADRÃO e só armazenar os dados dos usuários caso eles tenham concordado com isso explicitamente.

Empresas que usaram o ChatGPT por exemplo reclamaram que tiveram dados sigilosos da empresa vazados, por isso muitas empresas estão começando a proibir seu uso interno.

O fato de não conhecermos o mecanismo interno de como funciona na realidade este processo, desde as consultas à IA Generativa , interação com elas, obtenção de resultados, utilização das informações obtidas no processo, e quem fica com estas informações é preocupante. Alguns países já atentaram para o problema e passaram a estimular o desenvolvimento de soluções com tecnologia própria. A solução neste caso no meu entender passa pelo uso de soluções de software livre ou código aberto, que possa ser auditado e aperfeiçoado segundo a necessidade.

Existem outras áreas onde os limites e confiabilidade da inteligência artificial é questionado como nas áreas da saúde e na tomada de decisão judicial. Na área da saúde, até que ponto o uso de IA pode ser confiável ao ponto de dispensar a presença de um médico? No caso de um suposto aplicativo com IA para atendimento online de pacientes, o que acontece se um diagnóstico falhar e a evolução do paciente evoluir para óbito porque o aplicativo foi incapaz de detectar um sinal que serviria de alerta para um médico?

No setor judicial a automação tem avançado ao longo dos anos e com a incorporação da tecnologia de inteligência artificial visando agilizar o andamento dos processo judiciais. O correto na maioria dos casos seria não deixar a decisão final a cargo da máquina mas esta decisão ter um validação ou auditoria humana. Porém não é isso que tem acontecido no Brasil na maioria dos casos como aponto o artigo em SciELO – Brasil – O uso de inteligência artificial na tomada de decisão judicial .

Como vemos em alguns setores a tecnologia tem avançado com um trator abrindo a possibilidade de falhas, de que o individuo e a sociedade possam ser prejudicados e a perda da privacidade dos dados. Isto tem que ser discutido amplamente e regulamentado para cada setor onde se utiliza a Inteligência Artificial.

Autor: Ernesto Villafuerte Oyola

Mestre em Ciências de Computação – Inteligência Artificial

COPPE/UFRJ

Diretor da Aomega Treinamento e Consultoria www.aomega.com.br

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *