3º Encontro de Ciência Cândida Madureira | A Inteligência Artificial: impacto e ética

3º Encontro de Ciência Cândida Madureira | A Inteligência Artificial: impacto e ética

Os recentes desenvolvimentos cientifico-técnicos permitem que a Inteligência Artificial (IA) tenha no presente, e se antecipe no futuro próximo, um indiscutível impacto social.

A mais simples definição de IA, aponta como seu objetivo o desenvolvimento de entidades computacionais capazes de tomar decisões e exibir comportamentos semelhantes aos humanos em atividades que requerem aplicação de inteligência.

Isso implica que os sistemas de IA têm capacidade de resolução de problemas complexos, de reconhecimento de padrões (em dados, texto ou imagem, de classificação de situações levando à tomada de decisão, de aprendizagem de regras de raciocínio, de adaptação a novos ambientes, de compreensão e processamento de linguagens, extração de conhecimento e muito mais…. Como a criatividade, por exemplo.

.

Há uma problemática levantada pela IA

Curiosamente, desde o seu início, em 1956, ano em que John MacCarthy e Marvin Minski organizaram uma reunião fundadora da disciplina no Dartmouth College, tem sido muito mais fácil desenvolver sistemas computacionais para resolver problemas que são difíceis para o homem do que aqueles em que ele tem melhor desempenho (p.ex. reconhecimento de milhares de faces diferentes ou compreensão da linguagem natural, em que o homem tem tido melhores desempenhos). Acresce que o senso comum é extremamente difícil de reproduzir no computador.

Até há um lustre atrás, eu diria que, como um conhecido professor em Stanford, seria uma distração desnecessária estarmo-nos a preocupar com uma possível super-inteligência artificial pois isso seria equivalente a uma preocupação com o futuro sobrepovoamento de Marte.

No entanto, nos últimos tempos, aconteceram dois fenómenos de rutura na paulatina evolução dos sistemas baseados em IA que nos devem levar a tomar desde já precauções:

Um desses fatores disruptivos é o desenvolvimento do método a que se chama Deep Learning que tem obtido grande sucesso na interpretação por etapas, cada vez mais abstratas, de grandes quantidades de dados (petabytes = 1015 bytes). Reconhecimento de indivíduos pelas imagens, interpretação, tradução e compreensão semântica de Linguagem Natural, são realizações que se tornaram muito mais efetivas devido aos algoritmos de “Deep Lerning” (Aprendizagem Profunda).

O outro fator é precisamente a enormíssima quantidade de dados a que, no mundo atual, tudo e todos, estamos, e também em todos os momentos, a produzir sempre que clicamos, nos ligamos, comunicamos, compramos. Até mesmo os objetos e locais produzem, nos supermercados, nas ruas, nas salas, sinais com algum significado – o advento da  IoT (Internet of Things”). O resultado é uma gigantesca quantidade de dados (BD – Big Data) à espera de ser interpretados.

Esta combinação de DL e BD pode tornar-se explosiva porque poderá perigar a privacidade individual. E, por falar em explosões, ainda há uns meses num painel em que colaborei na Califórnia, se dizia que os cientistas nucleares do Séc. XX sabiam que tinham subestimado a importância futura da energia nuclear e quando reagiram a essa subestimação era tarde e o mundo tinha passado a ser governado muito à base desse puro resultado científico.

.

IA: realizações e mitificação

A IA ganhou já um enorme espaço na vida moderna, quer de forma explícita quer implícita.

São hoje inegáveis os grandes êxitos mais publicitados da IA como, por exemplo, a nível dos jogos, tendo DeepBlue vencido o então campeão mundial de xadrez, AlfaGo, que ganhou ao campeão mundial do Go, jogo que era tido como muitíssimo mais difícil que o Xadrez.

Duas outras realizações ilustrativas das capacidades da IA são a aprendizagem automática de condução de viaturas, prescindindo de condutor humano e as assistentes personalizadas comunicando por voz, como são os casos da assistente Alexa da Amazon e a da Google.

Mas a IA penetra de forma quase invisível muitas aplicações que habitualmente utilizamos. São os casos de decisões automáticas tomadas pelo Facebook e o Tweeter sobre o que nos é permitido ver quando pesquisamos nessas redes sociais. Já este ano o New York Times reproduzia as queixas do criador de um “web site” anti-Trump que verificou o desvio sistemático das pesquisas que deveriam encontrar esse “site” e que os utilizadores deixaram de lhe aceder a pretexto de assim se “evitarem fake news” sendo obviamente a Google, com os seus algoritmos, muitos deles secretos e relacionados com o Projeto OWL, o árbitro incontestado da classificação das notícias em falsas e verdadeiras…

Simultaneamente verifica-se um “hype”, um excesso publicitário em torno da IA, levantando expectativas desmesuradas que poderão ter um efeito perverso na credibilidade da área científica.  Em um excelente livro como o “Master Algorithm”, [1] Pedro Domingos, o autor, que é professor na Universidade de Washington, afirma que com tal algoritmo mestre já existem os conhecimentos necessários para realizar essa “ultimate learning machine”, donde se poderá derivar todo o conhecimento, passado, presente e futuro. Afirma ainda que será com esse Algoritmo Mestre, pela análise de grandes quantidades de dados, combinados com conhecimento também automaticamente adquiridos na literatura biomédica, que se irá obter a cura para o cancro.

Tal segurança na previsão parece excessiva o que ainda é mais reforçado quando, no mesmo livro, se afirma que através de “scanners” de alta resolução do cérebro, a Aprendizagem Automática da IA permitirá ao computador prever o que cada um irá desejar mesmo antes de o próprio realmente o desejar.

São sinais um tanto assustadores, quer sejam ilusórios quer se venham a confirmar. É um facto que investigadores japoneses da Universidade de Kyoto [2] provaram, em dezembro de 2017, poder automaticamente, através de algoritmos de “Deep Learning” sobre sinais cerebrais obtidos por ressonância magnética, reconstruir imagens (animais, letras) que humanos estariam a produzir no respetivo cérebro.

Por isso, por todo mundo, inclusive com grande iniciativa da anterior administração da Casa Branca, se discutem os possíveis impactos de uma IA Geral, isto é, não apenas específica, estereotipada para domínios estreitos como, por exemplo, Diagnóstico Médico, mas de largo espectro a que se chama “Strong AI”.

O que nos leva à seguinte questão:

Funcionará a mente como um computador? Ou pode um computador funcionar como uma mente?

 .

“Strong AI”

Atualmente os computadores ainda são fundamentalmente de silício e é muitíssimo diferente tentar mimar um cérebro “in vivo” agora “in silico”.

No entanto, porque os sistemas de IA tomam decisões (“raciocinam”) e podem interagir de forma progressivamente mais natural (texto ou voz) há a tendência de comparar as suas potencialidades às das pessoas. Mas as capacidades e habilidades neste momento, ainda têm focos diferentes. Os sistemas artificiais têm ainda deficiências ao nível do paralelismo ou da transferência de conhecimento abstraído de umas situações para outras. O senso comum ainda está em falta.

Ou seja, a forma de “raciocinar” é ainda diferente da humana o que não impede que se possa desenvolver uma IA Geral ou “Strong AI”. É sabido que os  submarinos não nadam como os peixes nem aviões batem as asas, o que não impede que sejam os melhores  e os mais efetivos no mar e no ar.

Por outro lado, o que é a mente? E a que tipo de entidade computacional nos estamos a referir se falarmos em autoconsciência?

Será a mente uma propriedade emergente do cérebro que dá aos humanos um conjunto de faculdades cognitivas, incluindo inteligência, consciência, livre arbítrio, raciocínio, memória, emoções, etc.?

E também poderíamos tentar fazer evoluir um “cérebro digital”.  E se conseguirmos mentes digitais de inteligência geral colocase o problema da consciência.

Mentes digitais baseadas em hardware em constante evolução (e A. Oliveira [3] argumenta que já conseguimos miniaturizações e integração de transístores que se aproximam do necessário para mimar as operações sinápticas dos neurónios no cérebro) poderão fazer emergir propriedades como a autoconsciência.

Mas há quem considere que a consciência não é assim tão inatingível (ao contrário do que J. Searle pensa), mas sim que ela poderá emergir da atividade coordenada de muitas funcionalidades inteligentes e mecanismos mais simples.

Filósofos com John Searle [4] advogam contra essa possibilidade pela análise parcelar que fazem das funcionalidades dos programas de IA (por exemplo, tradutores automáticos) concluído da impossibilidade de tais programas virem a ser dotados de verdadeira compreensão daquilo que manipulam. Argumento ou Paradoxo? O paradoxo de Zenão, através de análise por partes, também concluía que Aquiles nunca ultrapassaria a tartaruga em tempo finito, pois haveria sempre algum espaço, mesmo que infinitésimo entre eles. O que é falso. Como seria falso se pela análise das “frames” absolutamente estáticas de uma película de filme nos levasse a concluir que elas nunca nos dariam a ilusão do movimento.

Não poderá a autoconsciência ser uma propriedade emergente da atividade cerebral complexa? Não poderá um sistema artificial altamente complexo vir a criar algo similar?

O programa baseado em IA, Watson, desenvolvido pela IBM, venceu até os maiores especialistas humanos no concurso televisivo “Jeopardy” respondendo ao maior número de perguntas colocadas aos concorrentes. Mas será que Watson ficou feliz por ganhar? Talvez não. Mas eu acho que se poderia programar o sistema para entrar num estado emocional, embora simples, semelhante àquele tipo de felicidade. Tal seria reconhecido, não por qualquer expressão exterior histriónica, tantas vezes enganadora, mas porque lhe iria alterar a maneira de raciocinar, agir e memorizar durante certo tempo, como se estivesse alegre ou feliz ou então ansioso ou com medo. Isso eu julgo que sei fazer.

Mas os sistemas baseados em IA poderão eventualmente vir a comportar-se de forma a convencer-nos que possuem autoconsciência, sendo que um dos problemas será que, não tendo os humanos um conhecimento perfeito do que seja essa propriedade, pode vir a ser iludido.

Considerando a hipótese da IA atingir, ou mesmo ultrapassar o nível da Inteligência humana, poderemos concluir que existe um percurso, um road map, do qual algumas etapas como a Generalização e aprendizagem automática estão percorridas, outras em progresso (como a transferência de conhecimento de uns cenários para outros) e outras ainda não conseguidas. Estão neste último caso os problemas relacionados com a aquisição do senso comum e a exibição de uma autoconsciência.

.

Implicações e Remédios

As implicações socioeconómicas estão desde já a ser relevantes mas poderão vir a ser totalmente disruptivas.

Não que a sociedade humana não tenha já, no passado, sabido ultrapassar situações de rutura como a revolução industrial.  Mas o facto é que se tal acontece macroscopicamente, tal não impediu a trituração sistemática de muitos indivíduos e grupos sociais.

O AI Now Institut na Universidade de New York organizou o simpósio AI Now 2017 que refletiu sobre tais questões, concluindo que investigadores em IA e Robótica deverão desde já adotar normas éticas e legais permitindo o controlo e responsabilização humana em tais matérias.

Tais normas serão necessárias para regular a automação mais intensa do que se refere ao trabalho (incluindo contratação e despedimento), ao enviesamento na inclusão (podendo eternizar-se um parcialismo anti-inclusão), aos direitos e liberdades (evitando que a IA seja suporte de autoritarismos indiscutíveis) e na ética da governação.

Tais princípios éticos e legais são ainda mais urgentes quando a IA já está a ser aplicada no desenvolvimento de “LAWS” (Legal Autonomous Weapon Systems), pois a capacidade evolutiva de algoritmos de IA poderá fazer com que seja diminuta a compreensão de como tais armas responderão em certas situações.

Eu tenho preconizado que os sistemas decisores deverão ter, sempre que possível, “The Human in the Loop”. Os sistemas de IA deveriam também ser especificados de tal forma que tenham explícitos a  “ART” em “ARTificial Intelligence” [5]. Ou seja, “Accountability, Responsibilty, Transparency”.

Accountability”: Isto é, a quem nos devemos dirigir se, por exemplo, um automóvel auto-conduzido atropelar um peão? Ao construtor do hardware do veiculo, dos sensores e atuadores? Ao desenvolvedor do software que implementa o sistema de tomada de decisão? Às autoridades que permitem que tais veículos circulem nas estradas? Ao condutor que personaliza a tomada de decisão automática? Ao próprio carro-robô, pois o seu comportamento também é ditado pelo que foi aprendendo com a experiência? (Há companhias com personalidade jurídica, porque não robôs?). A todos Eles?

Responsibility”: Os sistemas de IA deveriam ter a responsabilidade de tornarem claras e compreensíveis as suas decisões.

Transparency” tem a ver com a especificação, desenvolvimento e reprodutibilidade dos sistemas de IA.

Não cremos que alguma vez os humanos se possam tornar obsoletos mesmo que existam importantes transferências de competências para os sistemas artificiais.

Estudar e investigar em IA é certamente fascinante, mas os desenvolvimentos presentes e futuros aconselham a um incremento do alerta cívico para controlar tal futuro e desde já!

Vila Nova Online | 3º ENcontro de Ciência Cândida Madureira - Inteligência Artificial.

.

Referências:

[1] “The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World”, Pedro Domingos,  Basic Books, 2015.

[2] “Deep image reconstruction from human brain activity”,  Guohua Shen, Tomoyasu Horikawa,  Kei Majima and  Yukiyasu Kamitani, preprint first posted online Dec. 28, 2017.

[3] The Digital Mind: How Science Is Redefining Humanity, Arlindo Oliveira, The MIT Press, 2017.

[4] Searle, John R.(1980), Minds, Brains, and programs, The Behavioral and Brain Sciences 3, 417-457.

[5] Bringing A.R.T. to A.I., by Virginia Dignum on November 06, 2017, IBM Watson AI XPRIZE, [https://ai.xprize.org/news/bringing-art-a ..

.

Imagem de destaque: Inteligências (Paula Costa; ilustração).

Outras imagens: Flashing messages – a computação em 1975 (Paula Costa; ilustração)

.

Se chegou até aqui é porque provavelmente aprecia o trabalho que estamos a desenvolver. 

A Vila Nova é gratuita para os leitores e sempre será. 

No entanto, a Vila Nova tem custos. Gostaríamos de poder vir a admitir pelo menos um jornalista a tempo inteiro que dinamizasse a área de reportagem e necessitamos manter e adquirir equipamento. Para além disso, há ainda uma série de outros custos associados à manutenção da Vila Nova na rede.

Se considera válido o trabalho realizado, não deixe de efetuar o seu simbólico contributo sob a forma de donativo através de multibanco ou netbanking.

NiB: 0065 0922 00017890002 91
IBAN: PT 50 0065 0922 00017890002 91
BIC/SWIFT: BESZ PT PL

 

Pub

Categorias: Ciência

Acerca do(a) Autor(a) do artigo

Eugénio Oliveira

Professor Catedrático da Universidade do Porto na área de Inteligência Artificial. Cofundador do LIACC (Laboratório de Inteligência Artificial e Ciências de Computadores) da Universidade do Porto e Diretor até Maio de 2016. Engenheiro em Investigação e Desenvolvimento na Brown Boveri C., Suíça na década de 70. Doutoramento em Inteligência Artificial na Universidade Nova de Lisboa. Prémio Gulbenkian para a Ciência e Tecnologia (ex-aequo) em 1984. " Guest Academic" na IBM/IEC na Bélgica (84-85). Orientou mais de 20 estudantes de doutoramento e participou em vários projetos internacionais na área da Inteligência Artificial e dos Agentes Inteligentes de Software. Publicou mais de 250 artigos tendo cerca de 4900 citações. Tópicos de interesse atual incluem arquitetura de agentes inteligentes de software, estratégias de cooperação, modelos de confiança e reputação, Agentes emocionais, Sistemas inteligentes de Transporte e “Text Mining”. Foi co-Chair da Conferência “18th EPIA Conference on Artificial Intelligent” em setembro de 2017.

Escreva um comentário

Apenas utilizadores registados podem comentar.