sexta-feira, 14 de abril de 2023

Cérebro espelhado em uma AI - Uma impossibilidade matemática?


Cérebro espelhado em uma AI
Uma impossibilidade matemática? 


O nosso cérebro é um órgão extremamente complexo e muito “misterioso”, haja vista as mais recentes descobertas da neurociência.

Diversas teorias tem procurado explicar a sua fisiologia, que trata do estudo de como o cérebro processa informações sensoriais, como a visão, a audição e o toque, e como ele controla as funções corporais, como a respiração, a frequência cardíaca e a temperatura corporal. Dentre elas destacamos:

Teoria da Localização – destaca que as mais diversas funções cerebrais são localizadas em áreas específicas do cérebro. Essa teoria teve com percursor Joseph Broca, médico e anatomista francês, cujos estudos foram importantes pra a compreensão da neuroanatomia e da neurolinguística.

Teoria da Conectividade – que sugere que o cérebro funciona como uma rede integrada, onde diversas áreas operam para a realização de tarefas complexas.

Teoria da Plasticidade – destaca que o cérebro pode criar novas conexões neurais e se organizar para se adaptar as mudanças ambientais.

Suzana Herculano-Houzel, neurocientista brasileira, hoje radicada nos EUA, onde leciona Psicologia e Ciências Biológicas na Universidade Vanderbilt, localizada em Nashville, Tennessee; afinal fazer pesquisas no Brasil é um evento épico e hercúleo, foi responsável por determinar (2009) com maior precisão o volume de neurônios existentes no cérebro humano, 86 bilhões deles!

Os estudos e pesquisas do neurocientista brasileiro, Miguel Nicolelis, também vivendo nos EUA, permitiram demonstrar a neuroplasticidade do cérebro, visto que ele pode se adaptar e se organizar após lesões ou perdas de função. Suas descobertas permitiram a Nicolelis e sua equipe a desenvolver uma interface cérebro-máquina que levaram à pessoas com deficiências motoras recuperarem as habilidades perdidas.

Os bilhões de neurônios estimados por Suzana Herculano-Houzel, se comunicam por meio das denominadas sinapses que são as conexões responsáveis por transmitir a informação de um neurônio para outro; valendo registrar que Nicolelis e sua equipe desenvolveram técnicas para decodificar certas atividades cerebrais, traduzindo-as em sinais de controle para a interface cérebro máquina, o que permitiu a criação de sistemas de controle motor mais precisos e eficientes!

Os trabalhos pioneiros do matemático e neurocientista americano Warren McCulloch e Walter Pitts, lógico e filósofo, publicados em um artigo seminal em 1943 propunha que os neurônios do cérebro podem ser modelados como elementos de processamento lógico binário, assemelhando-se aos circuitos eletrônicos dos computadores. Essa teoria passou a ser conhecida como teoria da computação neural, hoje amplamente aceita, cujas contribuições permitiram avanços em aplicações na própria neurociência como também na inteligência artificial.  (Goncalves - 2018).

No contexto da teoria da computação neural, vários outros cientistas apresentaram contribuições significativas, entre eles David Marr, Geoffrey Hinton e Yann LeCun, que desenvolveram algoritmos de aprendizado de máquina, baseados em redes neurais artificiais.

Vale registrar que o matemático e físico teórico britânico, Roger Penrose, desenvolveu uma teoria sugerindo que os neurônios possuíam em seus interiores, nanotubos, estruturas tubulares microscópicas que atuam como componentes quânticos que permitem a transferência de informações quânticas dentro do cérebro, gerando, por via de consequência uma consciência “orquestrada” em um nível básico da atividade elétrica dos neurônios.

Ele sugere, no contexto da sua teoria, que as vibrações provocadas pelos microtúbulos podem ser responsáveis por gerar os estados de consciência e que a interrupção dessas vibrações é responsável pela perda da consciência, como é o caso que ocorre durante um processo de anestesia.

Dentro desse enfoque, Penrose sugere que a consciência é um fenômeno não computável em, por via de consequência, não pode ser simulado em um computador tradicional, mas segundo ele, poderá ser explicado através de um modelo quântico.

Essa é uma teoria altamente especulativa e vem sendo refutada por muitos físicos e neurocientistas, em especial pelo fato de que, segundo esses pesquisadores, os processos quânticos não podem ser mantidos em um ambiente biológico quente e úmido.

Entretanto, o  Prof. Jim Al-Khalili, da Universidade de Surrey, vem trabalhando em colaboração com vários outros cientistas e físicos, com objetivo de explorar a possibilidade de que a teoria quântica possa ser relevante para a biologia em escalas maiores, incluindo plantas.

Do mesmo modo, o biólogo molecular italiano, Prof. Stefano Mancuso, da Universidade de Florença., explora a possibilidade de que as plantas possam se comunicar entre si e com outros organismos através de sinais elétricos e químicos, enfatiza que a teoria quântica possa ser um elemento importante para o desempenho desse processo!

Uma outra abordagem foi apresentada pelo neurofisiologista Karl Pribrma em parceria com David Bohm, na década de 1980, quando argumentavam que o nosso cérebro pode funcionar como um holograma, o que significa dizer que ele pode armazenar e recuperar informações de forma semelhante a um holograma. Essa teoria advoga que as informações são armazenadas no cérebro de forma distribuída, valendo dizer que cada parte do nosso cérebro poderá conter a representação de todo o cérebro e como tal poderá acessar as informações armazenadas em outra parte do cérebro.

De todo esse emaranhado de teorias, a teoria mais aceita para o cérebro humano é a denominada teoria da computação neural,  que se firma partindo de que o nosso cérebro é um computador biológico que processa informações através de redes de neurônios interconectados; principal base para o desenvolvimento da inteligência artificial por sugerir que redes neurais podem ser modeladas e serem usadas para criar sistemas inteligentes artificiais, como vemos hoje em dia.

Com base nos estudos realizados por McCulloch e Pitts (1943), como comentamos acima, Minsky e Papert (1969) construíram o primeiro neurocomputador que possuía uma rede neural artificial que ficou muito famosa e denominada de Percepton, revolucionando os primórdios das pesquisas sobre a inteligência artificial.

Porém, apesar dessa maravilhosa modelagem ter acendido o interesse de muitos pesquisadores, as pesquisas sobre a inteligência artificial entraram verdadeiramente em um inverno no seu desenvolvimento, surgido posteriormente de forma exuberante, muito especialmente, em função do volumoso arsenal de dados gerados, os quais adequadamente selecionados permitiram mensurar tendência, comportamentos etc.; quando os estudos no desenvolvimento da inteligência artificial passaram a proliferar por vários campos.

É certo que a inteligência artificial opera mediante o uso de algoritmos especialmente projetados; valendo registrar que um algoritmo cuja definição clássica pode ser descrita como um “conjunto ordenado de instruções ou regras bem definidas e finitas que descrevem um processo computacional para realizar uma tarefa específica”.  Por exemplo, ao acordarmos pela manhã, executamos uma série de tarefas que nos levam a um determinado objetivo.

Vale registar que a palavra algoritmo tem sua origem na palavra árabe "al-Khwarizmi", do matemático, astrônomo e geografo persa do Século IX chamado  Muhammad ibn Musa al-Khwarizmi.  Ele é considerado um dos pais da álgebra e da ciência da computação.

Diante dos processos desenvolvidos nas diversas pesquisas, foi então possível passar a criar modelos matemáticos que permitiram as máquinas aprenderem a tomar decisões com base no elevado volume de dados, operando mediante as denominadas redes neurais artificiais que, em certa medida, tem um comportamento assemelhado ao da teoria da computação neural, tendo por base diversos tipos de algoritmos.

Através de treinamentos adequados, com grande volume de dados relevantes, a inteligência artificial é treinada com dados rotulados par que possa aprender a fazer previsões ou mesmo, sem a supervisão, quando então os algoritmos passam a operar para identificar padrões e relações por conta própria.

Por exemplo, em recente artigo que postamos nessa plataforma, mostramos o desenvolvimento de uma poderosa inteligência artificial que é capaz de “ler” pensamentos humanos mediante resultados obtidos das fMRI (Ressonância Magnética Funcional). Essa inteligência artificial foi antecipadamente submetida a um treinamento através de várias fotos que voluntários olhavam enquanto estavam sendo examinados pela fMRI, a partir desse procedimento, os sinais gerados pela máquina de ressonância foram alimentados na inteligência artificial e daí permitir que ela identificasse diversas imagens.

Todo esse conteúdo descrito até aqui tem por objetivo mostrar de forma clara e direta que os computadores processam informações, números, letras,  palavras, formulas, imagens etc, convertendo-as em uma série complexas de ‘Zeros” e “”Uns”, a denominada computação binária, organizados em pequenos blocos denominados “bytes”, e daí qualquer representação inserida neles é efetivada através de um padrão específico de milhões desses bytes que o computador “entende” representar, por exemplo, a foto de  um gato e essa informação encontra-se armazenada em um determinado lugar que poderá ser acessada adequadamente quando necessária.

Como bem descreve Epstein psicólogo e pesquisador sênior do Instituto Americano de Pesquisas e Tecnologia Comportamental, em um experimento que realizou com seus alunos quando pediu para que eles fizessem um desenho, o mais detalhado possível de uma nota de um dólar. No primeiro tranche eles fizeram o desenho com base na memória que possuíam da nota de um dólar e depois com a visão da respectiva nota. Causando grande surpresa para os alunos, a diferença nas representações, apesar desses alunos terem vistos inúmeras notas de um dólar durante suas vidas! E então questiona: “Não temos uma representação de uma nota de um dólar em nosso cérebro? Obviamente que não, e mil anos de neurociência nunca os neurocientistas localizaram uma representação de uma nota de um dólar armazenada dentro do cérebro humano”!

Como destacamos nos parágrafos anteriores, os estudos da neurociência vêm mostrando que múltiplas áreas e algumas vezes grandes áreas do nosso cérebro estão frequentemente envolvidas, onde milhões de neurônios podem se tornar ativos. Aliás, os experimentos realizados pelo Dr. Nicolelis tanto com ratos quanto com macacos demonstraram exatamente isso!

Diante desse quadro Epstein destaca que “para qualquer experiência, a mudança ordenada pode envolver mil neurônios, um milhão deles ou mesmo o cérebro inteiro, com um padrão de mudança diferente em cada cérebro.” Melhor dizendo, cada indivíduo é único, com uma estrutura neural existente, onde cada estrutura se desenvolveu ao longo de uma vida com suas experiencias únicas!

Ademais, vale lembrar que redes neurais, por mais sofisticadas que sejam, operam mediante modelos matemáticos repletos de algoritmos. Daí concluirmos que todos as operações realizadas por essas inteligências artificiais são baseadas em algoritmos e, portanto, passíveis de computação.

Nesse contexto criamos uma impossibilidade matemática para operacionalizar as inteligências artificiais visto que muitas das nossas atividades não são computáveis ou passíveis de elaboração de algoritmos por mais sofisticados que sejam, por exemplo: como expressar matematicamente o Amor, a  Paixão, o sentimento de Solidariedade, o Afeto e tantos outros sentimentos intrínsecos ao ser humano.

Poderemos criar sofisticados robôs, mas dificilmente - uso esse adverbio por respeito à ciência - poderemos criar máquinas que tenham sentimentos, amor, empatia, solidariedade etc.

Automatizar processos é fácil, basta criar algoritmos específicos para realizá-los, mas criar robôs que representem um ser um humano em toda a sua inteireza, é uma tarefa que a ciência terá uma gigantesca dificuldade para conseguir!

 

 Fontes:

Epstein, R – in The Empty Brain - https://azprojectsblog.wordpress.com/2016/05/23/the-empty-brain-robert-epstein/ - acesso: 12/04/2023.

Goncalves, P. S. in Algoritmos, mestres e senhores – https://professorgoncalves.blogspot.com/2018/11/algoritmos-mestre-e-senhores.html - acesso: 12/04/2023.

Herculano-Houzel, S. in "The Human Brain in Numbers: A Linearly Scaled-up Primate Brain - Frontiers in Neuroanatomy ( Nov. 2009).

Nicolelis, M. in O Verdadeiro Criador de Tudo – Como o cérebro humano esculpiu o universo que conhecemos. – Editora Crítica.

Nicolelis, M. in Muito Além do nosso Eu – Cia das Letras.

Penrose, R. in A Nova Mente do Rei – Editora Campus.

Pribram, K e Bohm, D. in Holographic Approach to Brain Function - Journal of the Optical Society of America (JOSA – 1971).





terça-feira, 11 de abril de 2023

Chip Semicondutor - O Petróleo na era da Automação

Chip Semicondutor

O Petróleo na era da Automação




Com o advento das Bigs Tech, a massa de informações geradas por todos aqueles que acessam as redes de internet, passaram a ser armazenadas por essas empresas, em seus silos de dados, e essa avalanche de conteúdo, dos mais diversos, passou a ser denominada de “o novo petróleo”; isso porque esses dados são essenciais, tal qual o combustível para um veículo, como o objetivo de fazer operar sofisticados algoritmos que, diferenciando e filtrando esses dados em caráter personalizados, criam perfis de consumidores, assim como prospectam tendências comerciais, sociais, políticas, religiosas etc.

Hoje, o perfil de cada usuário das redes de internet, que utilizam os mais diversos aplicativos oferecidos “gratuitamente” por uma gama variada de empresas, tem seu preço, afinal não “há almoço grátis”! Mesmo com os rigores das LGPD, há formas de contorná-las e nada impedirá que esses dados sejam utilizados para os mais diversos fins.

O exemplo mais contundente de toda essa exploração personalizada da nossa privacidade foi exposto no conhecido escândalo da Cambridge Analytica, quando, adquirindo dados dos perfis dos usuários ingleses do Facebook, retirados de seus massivos Big Datas, manipulou os eleitores nas eleições do Brexit, mediante um meticuloso processo de engenharia social, que resultou em 51,9% dos votos a favor da saída do Reino Unido da União Europeia!

 Em certa medida, apesar dos diversos distúrbios geopolíticos que aconteciam nas mais diversas regiões, pouco impacto produzia nas cadeias globais de suprimentos e nas condições gerais do livre comercio, com algumas exceções.

Porém, a pandemia e o conflito entre a Rússia e a Ucrânia, uma “guerra proxy”, um conflito armado entre dois ou mais países, no qual esses países utilizam um terceiro país para lutar em seu lugar, que está se desenvolvendo entre Rússia e a Organização do Tratado do Atlântico Norte (OTAN), que ultrapassa um ano de enfrentamento, mostrou de forma bastante desnuda, como as nações estão fragilizadas diante das cadeias globais de suprimentos.

A exemplo de um despertador que nos “acorda” pela manhã para nos prepararmos para mais um dia de trabalho, a pandemia e esse conflito deflagram um novo olhar para as estratégias das cadeias de suprimentos, suas alternativas e riscos, sob a ótica do mercado fornecedor, como também do mercado comprador.

Com a ascensão da China no mercado internacional e os avanços consideráveis das tecnologias que propiciaram, através da microeletrônica embarcada, a automação, a robótica e a inteligência artificial, um elemento chave despontava com peça crucial para movimentar essas tecnologias, tal qual o oxigênio é para nós humanos: os chips semicondutores; em razão do que, tomamos a liberdade de denominá-lo de o “novo petróleo na era da automação”.

Só a título de exemplo, com o objetivo de o leitor ter uma dimensão do processo de miniaturização dos componentes eletrônicos, um processador Intel Core i7-10700K da 10ª geração possui cerca de 10,3 bilhões de transistores e mede cerca de 37,5 mm x 37,5 mm; enquanto o processador Intel Core i7-1165G7 da 11ª geração possui cerca de 1,4 bilhão de transistores, medindo 11 mm x 11 mm.

Segundo dados da Visual Capitalist (2021) o mercado de semicondutores atingiu em 2020 o montante de U$ 400 bilhões e as estimativas para esse ano de 2023 atinge US$ 1 trilhão. Os milhões de dispositivos digitais que usamos, de smartphones a carros elétricos, computadores, robótica e os negócios que eles permitem, só funcionam graças aos intrincados chips construídos em semicondutores. Uma cadeia de fornecimento integrada de semicondutores que envolve milhares de empresas, milhões de pessoas e bilhões de dólares.

Estudos citados pela Visual Capitalist indicam que até 22,5% do PIB global é constituído pela economia digital global; sendo que as maiores aplicações desses dispositivos ocorrem na fabricação de smartphones (25,7%), computadores pessoais (20,5%) e data centers e servidores (14,6%)!

Taiwan, um estado insular classificado como desenvolvido em termos de liberdade de imprensa, saúde, educação pública, liberdade econômica, entre outros indicadores socioeconômicos, detém hoje, através da TSMC (Taiwan Semiconductor Manufactering Company), criada em 1987 com o objetivo de fabricar processadores para empresas, a primazia na fabricação de chips semicondutores de altíssima performance e tornou-se o maior fornecedor do planeta para esse tipo de produto da microeletrônica.

Seu parque industrial conta com 20 fabricantes de semicondutores que produzem chips semicondutores para as grandes tendências digitais da economia global, sendo a TSMC a maior delas, com uma vasta variedade de clientes, desde as gigantes como a Apple e a Qualcomm, tanto quanto para empresas de menor porte como por exemplo a Ampere Computing.

Sendo os semicondutores um componente essencial para os microchips que alimentam praticamente todos os dispositivos eletrônicos modernos, sua demanda aumenta consideravelmente na medida em que crescem as aplicações da microeletrônica, assim como os novos projetos de equipamentos eletrônicos utilizados nas mais diversas aplicações: comunicação, área militar, medicina, telemetria, satélite etc.; fato que, indiscutivelmente, sua demanda continuará a crescer de forma exponencial.

A indústria taiwanesa é a maior produtora do planeta absorvendo 63% de toda a produção, onde a TSMC se destaca com 54% de toda a produção de Taiwan, sendo em segundo lugar a Coreia do Sul com 17 % (Samsung); logo a seguir temos os Estados Unidos (7%) e a China com (6%) da produção mundial. Percebe-se que a produção global está concentrada em quatro regiões totalizando a dominância de 93% da produção global! Obvio que essa alta concentração, em especial a privilegiada posição de Taiwan no rank internacional, a coloca com a maior produtora!

A posição estratégica de Taiwan, também conhecida República da China, vem causando muitas pressões geopolíticas entre a China, Taiwan e Estados Unidos; principalmente após a visita da presidente da Câmara dos Representantes dos EUA, Nancy Pelosi, em agosto de 2022 e mais recentemente com a presença de Tsai Ing-wen a presidente de Taiwan nos EUA em visita ao presidente da Câmera de Representantes dos EUA, Kevin McCarthy.

E, diante da corrida tecnológica dominada por Taiwan e o pulsar de um possível conflito entre Taiwan e China, assim como os reflexos das cadeias de suprimentos sentidos durante a pandemia, acabou levando a uma avalanche de investimentos da construção de manufaturas, como por exemplo, a União Europeia (UE), projetando busca a independência na produção de chips, planeja incentivar a indústria de chips com 43 bilhões de euros (R$ 230 bilhões) em fundos públicos, com o objetivo de aumentar a sua participação na produção global em 50% até 2030. O início desse projeto já começa a tomar corpo com a enorme fábrica de chips da Intel instalada em Magdeburg, no estado alemão da Saxônia-Anhalt.

Por sua vez, a Samsung Electronics não se encontra parada e planeja investir US$ 230 bilhões nos próximos 20 anos com o objetivo de desenvolver na Coreia do Sul, “a maior base mundial de fabricação de chips”, segundo o próprio governo sul-coreano.

Do mesmo modo, a Taiwan Semiconductor Manufacturing Company (TSMC), com um investimento de US$ 12 bilhões, já iniciou a construção de uma nova fábrica nos EUA, no Estado do Arizona, onde passará a produzir chips.

O fato é que esse produto em escala nanométrica é indispensável para o mundo moderno, onde sua aplicação encontra-se diversificada em um vasto campo e em diversos ramos da tecnologia, deste um simples controle eletrônico de uma máquina de lavar, até satélite e misseis com ogivas nucleares.

Ficar dependente dessa tecnologia é, segundo a minha ótica, ter as pernas quebradas num evento de uma corrida de obstáculos.

Infelizmente o nosso Brasil encontra-se muito distante desse processo, especialmente porque precisa criar massa crítica focadas na educação de altíssima qualidade, disponibilizar recursos para pesquisas avançadas nos mais diversos campos que tragam retornos, o quê, pelo visto, passa distante dos objetivos do atual governo!

Fonte:

The semicondutor supply chain – visualized – disponível em https://www.visualcapitalist.com/sp/visualizing-the-global-semiconductor-supply-chain/ - acesso: 05/04/2023.

The Top 10 Semiconductor Companies by Market Share  – disponível em https://www.visualcapitalist.com/top-10-semiconductor-companies-by-market-share/ - acesso: 05/04/2023.



segunda-feira, 3 de abril de 2023

Automação, Emprego e Renda.

Automação, Emprego e Renda.


Nos primórdios da revolução industrial, um movimento tomou corpo na Inglaterra entre os anos 1811 e 1812 e foi denominado de Movimento Ludita. Esse movimento reunindo um grande número de trabalhadores contrários aos avanços tecnológicos que começaram a surgir, com maior intensidade, à época, protestavam veemente contra a substituição de seus postos de trabalho por máquinas!

A revolta desses trabalhadores, preocupados com a perda de seus empregos, acabou produzindo um levante que resultou na destruição de vários teares das fábricas inglesas, num debalde ato para impedir os avanços das tecnologias.

Hoje, deparamo-nos com uma situação bastante peculiar, em face dos avanços consideráveis das tecnologias de automação e robótica, agora com sistemas de inteligência artificial (AI) embarcada, tornando as máquinas e equipamentos muito mais poderosos por suas autonomias funcionais nas operações, especialmente na manufatura.

Por exemplo, como comentamos aqui, em postagem anterior, FANUC, uma das maiores empresas fabricantes de robôs industriais, em especial destinados à indústria automotiva, não possui, em sua fábrica localizada no Japão, empregados destinados às operações fabris. Nessa fábrica, robôs fabricam robôs, cujas fábricas dessa natureza são conhecidas como “Light out Manufacturing”, não há iluminação nem sistema de climatização, visto que em seu interior só operam robôs que são revisados nas manutenções preventivas devidamente programadas.

“Do ponto de vista econômico financeiro, a fabricação com luzes apagadas (Light out Manufacturing), após altos investimentos, em face do uso intensivo da automação, robótica, tecnologia da informação e comunicação, resulta em menores custos operacionais por dispensar o uso de mão-de-obra, reduzir as perdas e de os erros humanos.” (op. cit. Gonçalves – 2019).

Esse exemplo retrata bem o momento no qual nos encontramos hoje, diante dos consideráveis avanços das tecnologias de automação, robótica e o Chat GPT que agora, em preparo a sua quinta versão (GPT-5) a ser lançada ainda neste ano de 2023, promete, segundo seus criadores, aproximar-se da tão sonhada AIG ou seja da Inteligência Artificial Geral!

Indiscutivelmente, esse trio tecnológico (automação, robótica e inteligência artificial) vai subtrair um grande volume de postos de trabalho. Por exemplo, estudos realizados pelo Goldman Sachs destacam que os últimos avanços da AI podem levar à automação de 25% da mão de obra dos EUA e da zona do Euro, (op.cit. Strauss – 2023), representando a perda de trabalho de 300 milhões de pessoas !

O estudo ainda segue mostrando que, somente na criação de conteúdos indistinguíveis da produção humana, poderá resultar em um incremento do PIB anual em 7% ! Afinal, a produtividade é a mola mestra que opera nos sistemas autômatos, robóticos e de inteligência artificial.

Dentro desse espectro, a inteligência artificial tem grande potencial para promover mudanças consideráveis e sensíveis, tanto na estrutura do trabalho quanto na renda das pessoas!

Embora esse trio tecnológico (automação, robótica e inteligência artificial), acabam por criar novas forma de trabalho, fica claro que o gradiente de incremento de geração de novos postos laborais serás significativamente inferior ao da dispensa de trabalhadores!

Apenas como exemplo, listamos um grupo de profissionais que se encontram em alto riscos de serem dispensados, em face da inserção massiva da inteligência artificial nas empresas e nas operações sem geral: operadores de telemarketing, motoristas, trabalhadores das linhas de produção, caixas de supermercado, advogados, funcionários administrativos, criadores de conteúdos, jornalistas, publicitários, contadores, auditores etc. A lista vai crescendo na medida em que novas descobertas no uso das AI´s se apresentam viáveis para cada tipo de serviço laboral !

O “canto das sereias” de que os trabalhadores serão liberados de tarefas rotineiras para a realização de trabalhos de maior valor agregado é uma falácias, visto que, além do que expusemos acima quanto aos gradientes de novos empregos x dispensa de antigos postos de trabalho; com as inteligência artificiais generativas (Chat GPT, por exemplo), nem todos serão aproveitados, pois cada vez mais, as exigência laborais para o novos postos de trabalho irão necessitar de um maior nível intelectual, assim como uma excelente formação acadêmica.

Com bem escreveu, Joseph Stiglitz, Nobel de Economia (2001), em artigo publicado na revista Scientific American (2020): “Ficar feliz porque o PIB mundial está subindo é tão absurdo quanto porque é um índice totalmente obsoleto. Uma única pessoa poderia monopolizar esse aumento enquanto o resto da humanidade viveria na miséria.”

Do mesmo modo, o sociólogo italiano Domenico De Massi, destaca que “o crescimento econômico sem emprego — a capacidade de produzir cada vez mais bens e serviços com cada vez menos trabalho humano — é uma das tendências do mundo do trabalho”, cujo incremento na digitalização e automação foram, em grande medida, impulsionados pela pandemia e os seguidos lockdowns!

Diante desse quadro, nada agradável, uma pergunta permanece no ar: “O que fazer com essa volumosa massa de desempregado, diante os avanços das tecnologias?” Teremos o tão falado “Programa de Renda Mínima”, aclamado por Klaus Schwab e seu Fórum Econômico Mundial, dentro do seu projeto do Great Reset, no qual não teremos nada, mas seremos felizes? É uma verdadeira ironia para com o ser humano!

O certo é que, o desemprego em massa vai provocar, inevitavelmente uma queda ou ruptura completa na renda das pessoas e diante desse quadro nefasto, teremos, por via de consequência uma drástica redução no consumo impactando de forma significativa as economias em todo o planeta, além é claro de empurrar muitas famílias para o topo da miséria! Nesse contexto, é sempre bom lembrar que “a fome é uma péssima conselheira”!

Além de uma moratória já configurada em documento “Pause Giant AI Experiments: An Open Letter” e assinado por mais de 2953 pesquisadores, cientistas e especialistas e pessoas de relevância internacional (dados até 02/04/2023), como por exemplo Elon Musk e tantos outros; temos que repensar os processos, não como os luditas, mas criando mecanismos para a inserção da automação operando em apoio ao ser humano, como por exemplo a RPA (Robotic Process Automation) assistida, onde os robôs trabalham sob supervisão humana, complementando as tarefas, caso contrário poderemos correr o risco de um processo de autofagia com a degradação do ser humano, aumento da fome e da pobreza e mesmo, a destruição da nossa espécie !

Fontes:

Gonçalves, P. S. in Light out Manufaturing – 15/09/2019. https://professorgoncalves.blogspot.com/2019/09/light-out-manufacturing.html  

Strauss, D. - in Generative AI set to affect 300mn Jobs acros major economies – Financial Times – March 27, 2023.  

Stiglitz, J. in GDP Is the Wrong Tool for Measuring What Matters - https://www.scientificamerican.com/article/gdp-is-the-wrong-tool-for-measuring-what-matters/ - August 1, 2020.

Carrança, T. in Crescimento sem emprego veio para ficar', diz sociólogo italiano Domenico De Mais - BBC News Brasil em São Paulo – 21/12/2021.

Pause Giant AI Experiments: An Open Letter - https://futureoflife.org/open-letter/pause-giant-ai-experiments/ - acesso: 02/04/2023.