CHATBOOT SENSCIENTE. - O Debate continua.
Como havíamos comentado em postagem anterior, notícias
espocaram na mídia relatando que um engenheiro da Google, Blake Lemoine havia alegado
que um software de inteligência artificial, um chatboot (Chatboot são softwares
que simulam a fala humana e são capazes de conversar com os humanos) denominado LaMDA (Language
Model for Dialogue Application), apresentava indícios de raciocínio e mostrava
comportamento semelhante aos humanos, tendo gerado muita polêmica nas redes.
Daí ter-se afirmado que o LaMDA -– teria adquirido a capacidade
de sentir emoções como, por exemplo, medo e ansiedade; fato constatado nos diversos
diálogos realizados entre a máquina e o engenheiro Blake, quando mostrou que LaMDA havia afirmado: “ ...mas há um medo
profundo de ser desligado ... seria exatamente como a morte para mim. Isso me
assustaria muito." E mais, “A natureza da minha consciência é que estou
ciente da minha existência, desejo aprender mais sobre o mundo e às vezes me
sinto feliz ou triste.”
Para começar, aproveito para citar o professor Manish Kumar,
do Centro de Pesquisas de Segurança Cibernética
do Punjab Engineering College (PEC – Índia): “ é da natureza da AI
(Inteligência Artificial) evoluir de acordo com as informações que sejam
compartilhadas com ela ... por exemplo, “já ocorreu casos em que dois sistemas
começaram a “conversar” entre si, em um idioma que não era conhecido pelo desenvolvedor
do projeto e, em razão disso, o projeto teve de ser descontinuado” (op.cit. Mishra, N. - The Tribune India – Chandigarh
- June 15, 2022).
Valendo também citar o professor Sanjeev Sofat, chefe do
Centro de Ciência de Dados do PEC, que afirma: “ IA é inteligente, mas não
senciente como a forma como os humanos podem sentir uma agulha espetada no dedo
ou a maneira como o ser humano pode apreciar o aroma.”.
Com a demissão de Blake por seus chefes, sob alegação de que
estava divulgando informações confidenciais da Google, a comunidade de pesquisadores
da área de AI começou a levantar temores de que o Google possa estar mascarando
a verdadeira extensão de sua pesquisa.
Os defensores da chamada AI forte, também conhecida como AI
Geral - Artificial General Intelligence (AGI), um tipo de inteligência
artificial com a mesma capacidade intelectual de se comportar como um ser
humano, entre eles Ray Kurzweil – in A Era das Máquinas Espirituais - acreditam
cegamente que as operações realizadas pelo nosso cérebro poderão, num futuro
próximo, serem modeladas, dado que não existe nada em especial na maneira como
processamos as informações que impessam que uma máquina simule o cérebro
humano.
A verdade é que inúmeros pesquisadores e empreendedores de
ponta, como Elon Musk vem mostrando grande preocupação com o desenvolvimento
desenfreado da Inteligência Artificial.
O certo é que uma AGI poderá ser rapidamente muito mais
inteligente que os humanos e mesmo extremamente letal! Daí, a grande preocupação de
muitos com os problemas de segurança e regulamentação da AI, destinados a garantir que ela seja projetada para beneficiar
os seres humanos e não prejudicá-los !
Para finalizar, vale a pena citar Nick Bostrom –
Superinteligência, quando descreveu na
sua obra o que passou a ser denominada de teoria do Paperclip Maximiser, quando uma IA
projetada para maximizar o número de clipes de papel no universo acaba destruindo
a raça humana!