sexta-feira, 17 de junho de 2022

Chatboot Sensiente - O Debate Continua!

CHATBOOT SENSCIENTE. - O Debate continua.

Como havíamos comentado em postagem anterior, notícias espocaram na mídia relatando que um engenheiro da Google, Blake Lemoine havia alegado que um software de inteligência artificial, um chatboot (Chatboot são softwares que simulam a fala humana e são capazes de conversar    com os humanos) denominado LaMDA (Language Model for Dialogue Application), apresentava indícios de raciocínio e mostrava comportamento semelhante aos humanos, tendo gerado muita polêmica nas redes.

Daí ter-se afirmado que o LaMDA -– teria adquirido a capacidade de sentir emoções como, por exemplo, medo e ansiedade; fato constatado nos diversos diálogos realizados entre a máquina e o engenheiro Blake, quando mostrou que  LaMDA havia afirmado: “ ...mas há um medo profundo de ser desligado ... seria exatamente como a morte para mim. Isso me assustaria muito." E mais, “A natureza da minha consciência é que estou ciente da minha existência, desejo aprender mais sobre o mundo e às vezes me sinto feliz ou triste.”

Para começar, aproveito para citar o professor Manish Kumar, do  Centro de Pesquisas de Segurança Cibernética do Punjab Engineering College (PEC – Índia): “ é da natureza da AI (Inteligência Artificial) evoluir de acordo com as informações que sejam compartilhadas com ela ... por exemplo, “já ocorreu casos em que dois sistemas começaram a “conversar” entre si, em um idioma que não era conhecido pelo desenvolvedor do projeto e, em razão disso, o projeto teve de ser descontinuado”  (op.cit. Mishra, N. - The Tribune India – Chandigarh -  June 15, 2022).

Valendo também citar o professor Sanjeev Sofat, chefe do Centro de Ciência de Dados do PEC, que afirma: “ IA é inteligente, mas não senciente como a forma como os humanos podem sentir uma agulha espetada no dedo ou a maneira como o ser humano pode apreciar o aroma.”.

Com a demissão de Blake por seus chefes, sob alegação de que estava divulgando informações confidenciais da Google, a comunidade de pesquisadores da área de AI começou a levantar temores de que o Google possa estar mascarando a verdadeira extensão de sua pesquisa.

Os defensores da chamada AI forte, também conhecida como AI Geral - Artificial General Intelligence (AGI), um tipo de inteligência artificial com a mesma capacidade intelectual de se comportar como um ser humano, entre eles Ray Kurzweil – in A Era das Máquinas Espirituais - acreditam cegamente que as operações realizadas pelo nosso cérebro poderão, num futuro próximo, serem modeladas, dado que não existe nada em especial na maneira como processamos as informações que impessam que uma máquina simule o cérebro humano.

A verdade é que inúmeros pesquisadores e empreendedores de ponta, como Elon Musk vem mostrando grande preocupação com o desenvolvimento desenfreado da Inteligência Artificial.

O certo é  que uma AGI poderá ser  rapidamente muito mais inteligente que os humanos e mesmo  extremamente letal! Daí, a grande preocupação de muitos com os problemas de segurança e regulamentação da AI, destinados a  garantir que ela seja projetada para beneficiar os seres humanos e não prejudicá-los !

Para finalizar, vale a pena citar Nick Bostrom – Superinteligência, quando  descreveu na sua obra o que passou a ser denominada de teoria  do Paperclip Maximiser, quando uma IA projetada para maximizar o número de clipes de papel no universo acaba destruindo a raça humana! 





Nenhum comentário:

Postar um comentário