quarta-feira, 14 de novembro de 2018

O dilema da máquinas autônomas.

O DILEMA DAS MÁQUINAS AUTÔNOMAS NA TOMADA
DE DECISÕES
“Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”
1ª. Lei da Robótica
Isaac Asimov.

A inteligência artificial aplicada está avançando em todos os ambientes, permeando-os com sofisticados sistemas baseados em redes neurais e e complexos algoritmos que, gradativamente, começam a interagir com o ambiente executando tarefas e tomando decisões.

Os exemplos clássicos e mais impactantes sobre o aspecto financeiros são os robôs que hoje praticamente comandam o mercado financeiro e, nesse sentido, apesar da sofisticação algorítmica de suas expertises, rombos bilionários acontecem e milionários se formam, como bem relata Lewis (2014) e Petterson (2012).

A denominada quarta revolução industrial que vem tomando corpo em função dos investimentos que estão sendo realizados em inovação tecnológica, big data e robótica, vem proporcionando um alto grau de automação de processos e critérios de tomada de decisão.
Segundo estudos realizados pela Mckinsey (2018), através de pesquisa em 400 casos em 19 segmentos empresariais, o potencial de aplicações em análise de dados e inteligência artificial oscilam numa faixa entre US$ 9.15 trilhões à 15.4 trilhões !

De um lado, a Toyota AI Venture, empresa sediada no Vale do Silício, abriu espaço para starups em todo o mundo, voltadas para a mobilidade, dados e robótica autônoma, disponibilizando um capital inicial de US$ 100 milhões, para o desenvolvimento de projetos nas citadas áreas. Uma das empresas beneficiadas com investimentos é a Boxbot que se dedica a construção de robôs para entregas autônomas.

Do mesmo modo, investiu US$ 1.0 Bilhões na pesquisa e desenvolvimento de carros autônomos e inteligência artificial, focando seus planos em uso de energias alternativas para a locomoção de novos veículos.

De outro, o uso das tecnologias de aprendizado profundo (deep learning) vem sendo implementada com grande ênfase, aproveitando as imagens disponíveis na internet, com a finalidade de que as máquinas autônomas aprendam e acabem por ter uma visão à mais próxima possível da visão humana; assim como melhorar o aprendizado dos diversos sistemas de inteligência artificial.

Por exemplo, o robô T-HR3 (Figura 2) é um humanoide capaz de espelhar inúmeros movimentos de usuários humanos.


Figura 2 – Robô  T-HR3 da Toyota.
Fonte: Google Imagens (2018).

Outros exemplos já bastante conhecidos por todos, são os denominados Chabot (programa de computador com inteligência artificial embarcada que simula ser um humano, quando “conversa” com um ser humano). São os chamados de assistente virtuais, entre eles, a Bia utilizado por uma rede de agencia de um banco de varejo, que chega a realizar 4,5 mil interações por dia!


Uma abordagem bem interessante e relativa aos algoritmos de inteligência artificial é descrita por O'Neil (2016), a qual discute como os grandes volumes de dados, quando manipulados de forma indevida, aumentam a desigualdade e ameaçam a democracia. A programação destorcida ou enviesada desses algoritmos poderá implicar em certos vieses excludentes, com graves consequências.

Essa autora mostra que muitos algoritmos são tendenciosos e prejudicam consideravelmente as análises realizadas, muito especialmente porque a tendência é acreditar cegamente na potencialidade desses algoritmos que são elaborados por pessoas e, por via de consequência, sujeitos à falhas e tendências! Ela traça um perfil argumentativo de que esses modelos acabam prejudicando os menos favorecidos, ao mesmo tempo que torna a vida dos mais afortunados bem mais confortável e cita inúmeros casos na sua obra.

A partir do momento em que máquinas autônomas começam a tomar decisões, as preocupações aumentam consideravelmente, muito especialmente em função dos possíveis danos que as mesmas podem causar, tanto físicos como psicológicos. Daí a preocupação com a questão relacionada ao comportamento dessas máquinas, em função de suas condutas, de tal ordem que sejam impedidas de causar danos aos seres humanos e outros seres vivos.

Um dos casos bem emblemáticos aconteceu com um chatbot  criado pela Microsoft, denominado de Tay, criado para interagir com jovens na faixa etária de 18 a 24 anos.
Esse software de AI, aparentemente inocente, acabou tornando-se agressivo e preconceituoso em função do aprendizado máquina a que foi submetido. Vale registrar que muitos analistas acreditam que esse viés agressivo foi fruto de ataques de hackers que desvirtuaram o seu “treinamento” !

Antes porém de tratarmos das máquinas autônomas e suas decisões, principal objetivo desse texto, consideremos o dilema que sofre um operador de um drone, também conhecido por “18X” (Figura 3), sentado numa sala, distante do teatro de operações, frente à telas de alta resolução e operando um joystick, toma decisões que resultam na morte de indivíduos, previamente escolhidos de acordo como critérios fixados pela inteligência americana, indicando que esse indivíduo é uma ameaça terrorista em potencial.
Sem qualquer possibilidade de julgamento prévio, ou mesmo ter a possibilidade de defesa das acusações a ele imputadas, esse indivíduo é sumariamente executado; e a reboque dele, vários outros indivíduos, muitos civis inocentes, também acabam sendo aniquilados, no que setor militar denomina sordidamente de “efeito colateral”!

E muitas situações ocorrem danos colaterais sérios, entre eles, aquele relatado por  Scahill (2014), situação na qual Obama autorizou a morte de um insurgente que se encontrava em uma pequena aldeia, cujo efeito colateral foi a morte de 47 civis, dentre eles várias mulheres grávidas. O lado hipócrita dessa história, descrita na citada obra é que, o próprio Obama, praticamente no mesmo horário, recebia o prêmio Nobel da paz!


Figura 3 - Drone Predador e Central de Controle.
Fonte: Google Imagens (2018).


A dramática situação de elevado estresse a que esses pilotos 18X são submetidos leva, invariavelmente, a pedidos de demissão. Em de 2015, logo não é novo, Chartterjee e Dispach, já relatavam que o conflito psicológico desses pilotos levou à demissão em massa, acarretando, por via de consequência, uma grande carência de novos pilotos.

O leitor interessado, na vivência desse drama dos pilotos de drones, recomendamos assistir a película dirigida por Gavin Hood, o mesmo diretor de “Infância Roubada” que leva o título em português de Decisão de Risco, cujo trailer poderá ser visualizado através do link que se encontra no subtítulo da Figura 4; cuja película encontra-se disponível no Netflix.



Figura 4 – Cenas do filme Decisão de Risco.
Fonte: Paris Filmes – via Google Imagens

Examinando o teatro de operações com total suporte de inteligência artificlal e alta tecnologia embarcada em diversos equipamentos e que acabam tomando decisões com base em julgamentos construídos por algoritmos dos quais, os próprios projetistas não sabem exatamente como essa decisão é tomada, em função do elevado volume de aprendizado a que é submetido, a preocupação envolve temas conflituosos em saber, qual o nível autonomia que daremos a essas máquinas, dado os riscos que apresentam!

A questão básica aqui é a seguinte: um robô ou um veículo autônomo deparando-se com uma situação conflituosa, por exemplo, entre atropelar o animal e causar danos ao passageiro do veículo ou atropelar e mesmo causar a morte de um transeunte que se encontra, mas proximidades, como deverá agir?

Diante desse verdadeiro dilema moral, o ser humano age por intuição e toma uma decisão que lhe apresente melhor, tanto no que diz respeito ao dano causado, quando aos aspectos morais e que se encontra submetido.

Os exemplos mais contundentes surgiram a partir do momento em que os carros autônomos começaram a trafegar nas ruas, após um longo período de “encubação laboratorial”.  O entusiasmo inicial que alavancou a presença de outras empresas nesse campo, sofreu um grande revés no momento em que alguns desses veículos acabaram envolvidos em acidentes. O primeiro correu em 2016, quando o veículo bateu em um caminhão e em 23 de maio deste ano, um outro veículo da Tesla acabou batendo contra a mureta de uma rodovia localizada em Mountain View, na Califórnia (EUA), causando a morte do motorista.


Figura 5 - Carros autônomos e sistema de identificação.
Fonte: Google Imagens (2018).

Diante desse quadro, os especialistas vem se debruçando sobre o tema e, nesse sentido, o MIT criou uma  plataforma denominada Moral Machine ( http://moralmachine.mit.edu/) na qual, qualquer usuário é submetido a situações adversas e deverá tomar uma decisão.

O objetivo é criar uma espécie de “consenso moral” e assim permitir que os cientistas e engenheiros de softwares possam elaborar modelos matemáticos de tomada de decisão baseados no consenso resultante dessa enquete.


Figura 6 – Carros autônomos – O dilema moral.
Fonte: Google Imagens (2018)

Qualquer pessoa poderá fazer esse “experimento” bastando para isso, entrar no site do link acima indicado e responder a uma bateria de situações criadas que irá inserir o agente diante de diversos eventos e nessa posição situacional de eventos, deverá tomar uma decisão.

As estatísticas recentes elaboradas pelo MIT para essa plataforma, que opera aberta para qualquer participante do planeta, resultam, até agora, em 40 milhões de “experimentos”.
Os resultados preliminares já apresentam algumas diretrizes que poderão auxiliar as equipes de projetistas a resolverem as chamadas “questões morais” que essas máquinas autônomas enfrentaram.

Dentre eles, há um consenso de que:

Preferência por salvar pessoa a animais;
Preferência por salvar um maior número de pessoas possível;
Preferência por salvas jovem em detrimento a salvar idosos.

Além das questões relacionadas à segurança da vida humana ou dos demais seres vivos, assim como eventuais danos ao patrimônio de terceiros, há questões jurídicas impositivas e relacionadas a responsabilidade pelos danos causados!

Esse é o grande dilema moral que se avizinha, na medida em que, as máquinas embarcadas com sofisticadas tecnologias operando com inteligência artificial, vem avançando consideravelmente em todos os campos da vida humana.

Além dos problemas relacionados à tomada de decisão em situação de alto risco, como aqueles exemplos de situações criadas pelo modelo do MIT (Moral Machine), não poderemos esquecer os aspectos jurídicos decorrentes, no que se refere às responsabilidades civis e criminais resultantes dessa “escolha” autônoma.

A pergunta que surge aqui é: quem deverá ser responsabilizado? O projetista do programa de inteligência artificial que sofre alterações continuamente em função do seu próprio aprendizado? (Vale ressaltar que muitos projetistas acabam não sabendo exatamente em que resultará a programação final, dado que, mediante as interações que ocorrem, o sistema acaba aprendendo cada vez mais, embora esse aprendizado possa ter um viés direcionado para determinados enfoques) ou o responsável a ser imputado é propriedade do sistema ou da máquina? Ou a responsabilidade será solidária?

Juristas, em todo o mundo já andam debruçados com esses cenários e os estudos mais avançados nesse âmbito estão relacionados a União Europeia e Estados Unidos; valendo registrar o excelente artigo de Pires e Silva (2017), publicado na Revista Brasileira de Políticas Públicas.

A situação começa a ficar ainda mais complicada! 

Vejamos o exemplo recente do Echo- assistente pessoal da Amazon – Figura 7. A promotoria do estado de New Hampshire (EUA) está querendo utilizar esse equipamento como “testemunha” em um caso de assassinato, visto que o equipamento se encontrava na cozinha do local aonde o crime aconteceu e deve ter capturado o áudio da ação do assassino!


Figura 7 – Echo- Assistente pessoal da Amazon.
Fonte: Google Imagens – 2018 (Amazon).

Em verdade, o futuro está chegando muito rapidamente e essas questões tendem a se avolumar consideravelmente e sobre elas, teremos que nos debruçar  para que possamos encontrar soluções para essa gama de situações que surgirão.

O grande dilema final será: seremos condutores da inteligência artificial ou seremos conduzidos por ela?

Fonte:
M.I.T – Moral Machine – disponível em http://moralmachine.mit.edu/ - acesso: 28/10/2018.
AWAD, E.; DSOUZA, S.,; KIM, R.; SCHULZ, J.; HENRICH, J.; SHARIFF, A.; BONNEFON, J.F.; RAHWAN, I, - in The Moral Machine Experiment – disponível em : https://www.nature.com/articles/s41586-018-0637-6 - acesso> 28/10/2018.
SATINO, R – in  Quem um carro autônomo deve matar ou salvar em um acidente? Faça o teste -   disponível em : https://olhardigital.com.br/noticia/quem-um-carro-autonomo-deve-matar-ou-salvar-em-um-acidente-faca-o-teste/66113 - acesso: 28/10/2018.
COSMOS in “Moral Machine” reveals deep split in autonomous car ethics – disponível em: https://cosmosmagazine.com/technology/moral-machine-reveals-deep-split-in-autonomous-car-ethics - acesso: 28/10/2018.
WHATIS.com – in Moral Machine - https://whatis.techtarget.com/definition/Moral-Machine - acesso: 28/10/2018.
HOQUE, F. IN The case of humanities in the era of AI, automation and tecnhology – disponível em  https://www.fastcompany.com/90236240/the-case-for-humanities-in-the-era-of-ai-automation-and-technology - acesso: 28/10/2018.
ALECRIN. E. in Carro autônomo da Google sofre acidente, mas o erro foi humano – disponível em: https://tecnoblog.net/242028/acidente-carro-autonomo-waymo/ acesso: 28/10/2018.
KAUFMAN, D. in A ética e a inteligência artificial – Valor Econômico 21/12/2017 – disponível em https://www.valor.com.br/cultura/5235167/etica-e-inteligencia-artificial - aceso: 30/10/2018.
VIANA, L – in A inteligência Artificial e o dilema moral – disponível em:  http://www.multconnect.com.br/pt-br/publicacoes/Paginas/a-inteligencia-artificial-e-o-dilema-moral.aspx - acesso: 30/10/2018.
 CHARTTERJEE, P. DISPACH T in Traumatizados, pilotos de drones no EUA pedem demissão em massa – disponível em: https://www.pragmatismopolitico.com.br/2015/03/traumatizados-pilotos-de-drones-dos-eua-pedem-demissao-em-massa.html
PETTERSON, S – Mentes Brilhantes, Rombos bilionários – Ed. Best Business (2012).
LEWIS, M, - Flashboys – A revolta em Wall Street – Editora Intrínseca (2014).
O´NEILL,C. in Weapons of Math Destruction – New York Times Bestseller (2016).
SCAHILL, J- Guerras Sujas – O mundo é um campo de batalha = Cia das letras (2014).
ROBERTO, E.; CAMARA. In Danos causados por carros autônomos. – disponível em : hppts://www.jota.info/opinião-e-analise/artigos/danos-causados-por-carros-autonomos-06042018.
SILVA, L.M. – A responsabilidade civil por acidentes de carros autônomos: uma análise sob a ótica das smart cities – Revista do TRF1 – Brasilia v.29 n° 7/8 jul/aago.2017 – pags. 45/52.
PIRES, T.C.F; e DA SILVA, R.P. – A responsabilidade civil pelos atos autônomos da inteligência artificial – Revista Brasileira de Política Públicas – Volume 7 8 n° 3 – Dez -2017. Pag. 239/254.
MARR, B. in The amazing ways Toyota in using artificial intellegence, big data & robots – Forbes – 09/11/2018 – disponível em https://forbes.com.
MCKINSEY – in The executive`s AI playbook – McKinsey Insight (2018).
OLHAR DIGITAL – in Assistente pessoal da Amazon se´ra “testemunha” em um caso de assassinato – www.olhardigital.com.br – 12/11/2018.




Nenhum comentário:

Postar um comentário