O DILEMA DAS MÁQUINAS AUTÔNOMAS NA
TOMADA
DE DECISÕES
“Um
robô não pode ferir um ser humano ou, por inação, permitir que um ser humano
sofra algum mal”
1ª.
Lei da Robótica
Isaac
Asimov.
A inteligência artificial
aplicada está avançando em todos os ambientes, permeando-os com sofisticados
sistemas baseados em redes neurais e e complexos algoritmos que,
gradativamente, começam a interagir com o ambiente executando tarefas e tomando
decisões.
Os exemplos clássicos e mais
impactantes sobre o aspecto financeiros são os robôs que hoje praticamente
comandam o mercado financeiro e, nesse sentido, apesar da sofisticação
algorítmica de suas expertises, rombos bilionários acontecem e milionários se
formam, como bem relata Lewis (2014) e Petterson (2012).
A denominada quarta revolução
industrial que vem tomando corpo em função dos investimentos que estão sendo
realizados em inovação tecnológica, big data e robótica, vem proporcionando um
alto grau de automação de processos e critérios de tomada de decisão.
Segundo estudos realizados
pela Mckinsey (2018), através de pesquisa em 400 casos em 19 segmentos
empresariais, o potencial de aplicações em análise de dados e inteligência
artificial oscilam numa faixa entre US$ 9.15 trilhões à 15.4 trilhões !
De um lado, a Toyota AI
Venture, empresa sediada no Vale do Silício, abriu espaço para starups em todo o mundo, voltadas para a
mobilidade, dados e robótica autônoma, disponibilizando um capital inicial de
US$ 100 milhões, para o desenvolvimento de projetos nas citadas áreas. Uma das
empresas beneficiadas com investimentos é a Boxbot que se dedica a construção
de robôs para entregas autônomas.
Do mesmo modo, investiu US$
1.0 Bilhões na pesquisa e desenvolvimento de carros autônomos e inteligência
artificial, focando seus planos em uso de energias alternativas para a
locomoção de novos veículos.
De outro, o uso das
tecnologias de aprendizado profundo (deep
learning) vem sendo implementada com grande ênfase, aproveitando as imagens
disponíveis na internet, com a finalidade de que as máquinas autônomas aprendam e
acabem por ter uma visão à mais próxima possível da visão humana; assim como
melhorar o aprendizado dos diversos sistemas de inteligência artificial.
Por exemplo, o robô T-HR3 (Figura 2) é um humanoide capaz de espelhar
inúmeros movimentos de usuários humanos.
Figura 2 – Robô
T-HR3 da Toyota.
Fonte: Google Imagens (2018).
Outros
exemplos já bastante conhecidos por todos, são os denominados Chabot (programa de computador
com inteligência artificial embarcada que simula ser um humano, quando
“conversa” com um ser humano). São os chamados de assistente virtuais, entre
eles, a Bia utilizado por uma rede de agencia de um banco de varejo, que chega
a realizar 4,5 mil interações por dia!
Uma abordagem bem interessante
e relativa aos algoritmos de inteligência artificial é descrita por O'Neil (2016),
a qual discute como os grandes volumes de dados, quando manipulados de forma
indevida, aumentam a desigualdade e ameaçam a democracia. A programação destorcida
ou enviesada desses algoritmos poderá implicar em certos vieses excludentes,
com graves consequências.
Essa autora mostra que muitos
algoritmos são tendenciosos e prejudicam consideravelmente as análises
realizadas, muito especialmente porque a tendência é acreditar cegamente na
potencialidade desses algoritmos que são elaborados por pessoas e, por via de
consequência, sujeitos à falhas e tendências! Ela traça um perfil argumentativo
de que esses modelos acabam prejudicando os menos favorecidos, ao mesmo tempo
que torna a vida dos mais afortunados bem mais confortável e cita inúmeros
casos na sua obra.
A partir do momento em que
máquinas autônomas começam a tomar decisões, as preocupações aumentam consideravelmente,
muito especialmente em função dos possíveis danos que as mesmas podem causar,
tanto físicos como psicológicos. Daí a preocupação com a questão relacionada ao
comportamento dessas máquinas, em função de suas condutas, de tal ordem que sejam
impedidas de causar danos aos seres humanos e outros seres vivos.
Um dos casos bem emblemáticos
aconteceu com um chatbot criado pela Microsoft, denominado de Tay,
criado para interagir com jovens na faixa etária de 18 a 24 anos.
Esse software de AI,
aparentemente inocente, acabou tornando-se agressivo e preconceituoso em função
do aprendizado máquina a que foi submetido. Vale registrar que muitos analistas
acreditam que esse viés agressivo foi fruto de ataques de hackers que
desvirtuaram o seu “treinamento” !
Antes
porém de tratarmos das máquinas autônomas e suas decisões, principal objetivo
desse texto, consideremos o dilema que sofre um operador de um drone, também
conhecido por “18X” (Figura 3), sentado numa sala, distante do teatro de
operações, frente à telas de alta resolução e operando um joystick, toma decisões que resultam na morte de indivíduos, previamente escolhidos de acordo
como critérios fixados pela inteligência americana, indicando que esse
indivíduo é uma ameaça terrorista em potencial.
Sem
qualquer possibilidade de julgamento prévio, ou mesmo ter a possibilidade de defesa
das acusações a ele imputadas, esse indivíduo é sumariamente executado; e a
reboque dele, vários outros indivíduos, muitos civis inocentes, também acabam
sendo aniquilados, no que setor militar denomina sordidamente de “efeito
colateral”!
E
muitas situações ocorrem danos colaterais sérios, entre eles, aquele relatado por
Scahill (2014), situação na qual Obama
autorizou a morte de um insurgente que se encontrava em uma pequena aldeia,
cujo efeito colateral foi a morte de 47 civis, dentre eles várias mulheres
grávidas. O lado hipócrita dessa história, descrita na citada obra é que, o
próprio Obama, praticamente no mesmo horário, recebia o prêmio Nobel da paz!
Figura
3 - Drone Predador e Central de Controle.
Fonte:
Google Imagens (2018).
A
dramática situação de elevado estresse a que esses pilotos 18X são submetidos
leva, invariavelmente, a pedidos de demissão. Em de 2015, logo não é novo,
Chartterjee e Dispach, já relatavam que o conflito psicológico desses pilotos
levou à demissão em massa, acarretando, por via de consequência, uma grande
carência de novos pilotos.
O
leitor interessado, na vivência desse drama dos pilotos de drones, recomendamos
assistir a película dirigida por Gavin Hood, o mesmo diretor de “Infância
Roubada” que leva o título em português de Decisão de Risco, cujo trailer
poderá ser visualizado através do link que se encontra no subtítulo da Figura 4;
cuja película encontra-se disponível no Netflix.
Figura
4 – Cenas do filme Decisão de Risco.
Fonte:
Paris Filmes – via Google Imagens
Examinando
o teatro de operações com total suporte de inteligência artificlal e alta
tecnologia embarcada em diversos equipamentos e que acabam tomando decisões com
base em julgamentos construídos por algoritmos dos quais, os próprios
projetistas não sabem exatamente como essa decisão é tomada, em função do
elevado volume de aprendizado a que é submetido, a preocupação envolve temas
conflituosos em saber, qual o nível autonomia que daremos a essas máquinas,
dado os riscos que apresentam!
A
questão básica aqui é a seguinte: um robô ou um veículo autônomo deparando-se
com uma situação conflituosa, por exemplo, entre atropelar o animal e causar
danos ao passageiro do veículo ou atropelar e mesmo causar a morte de um
transeunte que se encontra, mas proximidades, como deverá agir?
Diante
desse verdadeiro dilema moral, o ser humano age por intuição e toma uma decisão
que lhe apresente melhor, tanto no que diz respeito ao dano causado, quando aos
aspectos morais e que se encontra submetido.
Os
exemplos mais contundentes surgiram a partir do momento em que os carros
autônomos começaram a trafegar nas ruas, após um longo período de “encubação
laboratorial”. O entusiasmo inicial que
alavancou a presença de outras empresas nesse campo, sofreu um grande revés no
momento em que alguns desses veículos acabaram envolvidos em acidentes. O
primeiro correu em 2016, quando o veículo bateu em um caminhão e em 23 de maio
deste ano, um outro veículo da Tesla acabou batendo contra a mureta de uma
rodovia localizada em Mountain View, na Califórnia (EUA), causando a morte do
motorista.
Figura 5 - Carros autônomos e sistema de
identificação.
Fonte: Google Imagens (2018).
Diante
desse quadro, os especialistas vem se debruçando sobre o tema e, nesse sentido,
o MIT criou uma plataforma denominada
Moral Machine ( http://moralmachine.mit.edu/)
na qual, qualquer usuário é submetido a situações adversas e deverá tomar uma
decisão.
O
objetivo é criar uma espécie de “consenso moral” e assim permitir que os
cientistas e engenheiros de softwares possam elaborar modelos matemáticos de
tomada de decisão baseados no consenso resultante dessa enquete.
Figura
6 – Carros autônomos – O dilema moral.
Fonte:
Google Imagens (2018)
Qualquer
pessoa poderá fazer esse “experimento” bastando para isso, entrar no site do
link acima indicado e responder a uma bateria de situações criadas que irá
inserir o agente diante de diversos eventos e nessa posição situacional de
eventos, deverá tomar uma decisão.
As
estatísticas recentes elaboradas pelo MIT para essa plataforma, que opera
aberta para qualquer participante do planeta, resultam, até agora, em 40
milhões de “experimentos”.
Os
resultados preliminares já apresentam algumas diretrizes que poderão auxiliar
as equipes de projetistas a resolverem as chamadas “questões morais” que essas
máquinas autônomas enfrentaram.
Dentre eles, há um consenso de que:
Preferência por salvar pessoa a animais;
Preferência por salvar um maior número
de pessoas possível;
Preferência por salvas jovem em
detrimento a salvar idosos.
Além
das questões relacionadas à segurança da vida humana ou dos demais seres vivos,
assim como eventuais danos ao patrimônio de terceiros, há questões jurídicas
impositivas e relacionadas a responsabilidade pelos danos causados!
Esse
é o grande dilema moral que se avizinha, na medida em que, as máquinas
embarcadas com sofisticadas tecnologias operando com inteligência artificial,
vem avançando consideravelmente em todos os campos da vida humana.
Além
dos problemas relacionados à tomada de decisão em situação de alto risco, como
aqueles exemplos de situações criadas pelo modelo do MIT (Moral Machine), não
poderemos esquecer os aspectos jurídicos decorrentes, no que se refere às
responsabilidades civis e criminais resultantes dessa “escolha” autônoma.
A pergunta
que surge aqui é: quem deverá ser responsabilizado? O projetista do programa de
inteligência artificial que sofre alterações continuamente em função do seu
próprio aprendizado? (Vale ressaltar que muitos projetistas acabam não sabendo
exatamente em que resultará a programação final, dado que, mediante as
interações que ocorrem, o sistema acaba aprendendo cada vez mais, embora esse
aprendizado possa ter um viés direcionado para determinados enfoques) ou o
responsável a ser imputado é propriedade do sistema ou da máquina? Ou a responsabilidade será solidária?
Juristas,
em todo o mundo já andam debruçados com esses cenários e os estudos mais
avançados nesse âmbito estão relacionados a União Europeia e Estados
Unidos; valendo registrar o excelente artigo de Pires e Silva (2017), publicado na Revista Brasileira de Políticas Públicas.
A
situação começa a ficar ainda mais complicada!
Vejamos o exemplo recente do Echo- assistente pessoal da Amazon – Figura 7. A promotoria do estado de New Hampshire (EUA) está querendo utilizar esse equipamento como “testemunha” em um caso de assassinato, visto que o equipamento se encontrava na cozinha do local aonde o crime aconteceu e deve ter capturado o áudio da ação do assassino!
Vejamos o exemplo recente do Echo- assistente pessoal da Amazon – Figura 7. A promotoria do estado de New Hampshire (EUA) está querendo utilizar esse equipamento como “testemunha” em um caso de assassinato, visto que o equipamento se encontrava na cozinha do local aonde o crime aconteceu e deve ter capturado o áudio da ação do assassino!
Figura
7 – Echo- Assistente pessoal da Amazon.
Fonte:
Google Imagens – 2018 (Amazon).
Em
verdade, o futuro está chegando muito rapidamente e essas questões tendem a se
avolumar consideravelmente e sobre elas, teremos que nos debruçar para
que possamos encontrar soluções para essa gama de situações que surgirão.
O grande dilema final será: seremos condutores da inteligência artificial ou seremos conduzidos por ela?
O grande dilema final será: seremos condutores da inteligência artificial ou seremos conduzidos por ela?
Fonte:
M.I.T
– Moral Machine – disponível em http://moralmachine.mit.edu/ -
acesso: 28/10/2018.
AWAD,
E.; DSOUZA, S.,; KIM, R.; SCHULZ, J.; HENRICH, J.; SHARIFF, A.; BONNEFON, J.F.;
RAHWAN, I, - in The Moral Machine Experiment – disponível em : https://www.nature.com/articles/s41586-018-0637-6
- acesso> 28/10/2018.
SATINO,
R – in Quem um carro autônomo deve matar
ou salvar em um acidente? Faça o teste -
disponível em : https://olhardigital.com.br/noticia/quem-um-carro-autonomo-deve-matar-ou-salvar-em-um-acidente-faca-o-teste/66113
- acesso: 28/10/2018.
COSMOS
in “Moral Machine” reveals deep split in autonomous car ethics – disponível em:
https://cosmosmagazine.com/technology/moral-machine-reveals-deep-split-in-autonomous-car-ethics
- acesso: 28/10/2018.
WHATIS.com
– in Moral Machine - https://whatis.techtarget.com/definition/Moral-Machine
- acesso: 28/10/2018.
HOQUE,
F. IN The case of humanities in the era of AI, automation and tecnhology –
disponível em https://www.fastcompany.com/90236240/the-case-for-humanities-in-the-era-of-ai-automation-and-technology
- acesso: 28/10/2018.
ALECRIN.
E. in Carro autônomo da Google sofre acidente, mas o erro foi humano –
disponível em: https://tecnoblog.net/242028/acidente-carro-autonomo-waymo/
acesso: 28/10/2018.
KAUFMAN,
D. in A ética e a inteligência artificial – Valor Econômico 21/12/2017 –
disponível em https://www.valor.com.br/cultura/5235167/etica-e-inteligencia-artificial
- aceso: 30/10/2018.
VIANA,
L – in A inteligência Artificial e o dilema moral – disponível em: http://www.multconnect.com.br/pt-br/publicacoes/Paginas/a-inteligencia-artificial-e-o-dilema-moral.aspx
- acesso: 30/10/2018.
CHARTTERJEE, P. DISPACH T in Traumatizados, pilotos de drones no EUA pedem
demissão em massa – disponível em: https://www.pragmatismopolitico.com.br/2015/03/traumatizados-pilotos-de-drones-dos-eua-pedem-demissao-em-massa.html
PETTERSON,
S – Mentes Brilhantes, Rombos bilionários – Ed. Best Business (2012).
LEWIS,
M, - Flashboys – A revolta em Wall Street – Editora Intrínseca (2014).
O´NEILL,C.
in Weapons of Math Destruction – New York Times Bestseller (2016).
SCAHILL,
J- Guerras Sujas – O mundo é um campo de batalha = Cia das letras (2014).
ROBERTO, E.;
CAMARA. In Danos causados por carros autônomos. – disponível em :
hppts://www.jota.info/opinião-e-analise/artigos/danos-causados-por-carros-autonomos-06042018.
SILVA, L.M. – A
responsabilidade civil por acidentes de carros autônomos: uma análise sob a
ótica das smart cities – Revista do
TRF1 – Brasilia v.29 n° 7/8 jul/aago.2017 – pags. 45/52.
PIRES, T.C.F; e
DA SILVA, R.P. – A responsabilidade civil pelos atos autônomos da inteligência
artificial – Revista Brasileira de Política Públicas – Volume 7 8 n° 3 – Dez
-2017. Pag. 239/254.
MARR, B. in The
amazing ways Toyota in using artificial intellegence, big data & robots –
Forbes – 09/11/2018 – disponível em https://forbes.com.
MCKINSEY – in
The executive`s AI playbook – McKinsey Insight (2018).
OLHAR DIGITAL –
in Assistente pessoal da Amazon se´ra “testemunha” em um caso de assassinato – www.olhardigital.com.br
– 12/11/2018.
Nenhum comentário:
Postar um comentário