quinta-feira, 26 de janeiro de 2023

Computadores Quânticos – que ameaças eles trazem?

Computadores Quânticos

Que ameaças eles trazem?



As primeiras pesquisas teóricas sobre computadores quânticos datam da década de 1920 e 1930 e foram baseados em trabalhos realizados por físicos e matemáticos, sendo que em 1935 o físico alemão Max Born publicou os primeiros trabalhos sobre o tema.

Embora as demonstrações teóricas indicassem que esses computadores seriam viáveis, foi somente em 1985 que o físico canadense David Deutsh mostrou a sua viabilidade prática por ter construído o primeiro computador quântico. Eles funcionam com uma lógica baseada na teoria quântica e utilizam os denominados qubits (ou bits quânticos), em contrapartida os computadores que hoje são tão corriqueiros em nossas aplicações sejam no lazer ou no trabalho, que utilizam bits para armazenar e processar informações.

Aberto o leque de possibilidades para a tecnologia dos computadores quânticos, as pesquisas na área vêm se expandindo exponencialmente, através de vários grupos em todo o planeta, que procuram aprimorar essa tecnologia para torná-la mais potentes assim com ampliar suas aplicações.

Vários países em todo o planeta vem realizando uma verdadeira corrida “armamentista” para melhorar o seu desenvolvimento entre eles: EUA, China, Rússia, Japão, Comunidade Europeia etc. Dominar essa nova tecnologia é deter uma poderosa máquina, assim como bem explicitou Vladimir Putin ao falar sobre os avanços a Inteligência Artificial quando, em 2017, afirmou:  "quem se tornar líder na IA terá o controle mundial", na computação quântica não será diferente!

Além da elevada velocidade para resolver problemas complexos, embora ainda estejamos engatinhando nessa área, uma das grandes preocupações está relacionada à criptografia existente atualmente, dada a facilidade com que um computador quântico tem para “quebrá-la” rapidamente. Baste citar um exemplo: a criptografia RSA de 2048 bits, um algoritmo de criptografia assimétrica desenvolvido por Ron Rivest, Adi Shamir e Leonard Adleman em 1977, daí o seu nome que utiliza as iniciais de seus criadores, é muito utilizada nas assinaturas digitais, assim como para criptografar informações sensíveis, como senhas, informações financeiras, dados médicos, criptomoedas, como o Bitcoin etc.

Segundo alguns estudos, quebrar uma chave RSA de 2048 bits pode levar algumas poucas horas, se a tarefa for realizada em um computador quântico; porém se utilizarmos um computador tradicional, ela seria executada em milhões de anos! É um pesadelo que se aproxima.

O fato é que não podemos deter os avanços da tecnologia. O que devemos fazer é buscar meios mais seguros para operar com ela, sob pena de sermos engolidos, tal qual um tsunami que avança ferozmente deixando um rastro de destruição. Aqui, a lição pode ser construída a partir da Teoria da Evolução das Espécies de Darwin, como escrevi no artigo que postei nesse espaço virtual, quando tratei da GPT-3: “ou evoluímos em um processo adaptativo ou seremos tragados por ele”!

O vídeo do link abaixo apresenta de forma bastante didática os principais conceitos básicos dos computadores quânticos.








terça-feira, 24 de janeiro de 2023

AI Revolution

AI Revolution


Pessoalmente comparo a revolução que estamos convivendo através do uso intensificado da Inteligência Artificial (AI), culminando com a criação do primeiro protótipo mais avançado, qual seja a GTP-3 (OpenAI), que opera mediante uma conversação “homem-máquina” através da linguagem natural, a dois eventos igualmente impactantes e significativos.

O primeiro deles, leva-me a retornar a Alexandria, quando no reinado do Grego Ptolomeu, foi, criado o primeiro acervo geral do conhecimento humano, erguido em 331 a.C, que ficou cunhado como Biblioteca de Alexandria.

Nela estava reunido uma vastíssima coleção de pergaminhos das mais variadas regiões do nosso planeta e abrangendo todas as áreas do conhecimento humano disponíveis a época.

Comparativamente e, num paralelismo, reputo-a hoje como o Big Data, o verdadeiro combustível que faz mover, na velocidade da luz, os diversos algoritmos de machine learning, cada vez mais sofisticados e complexos.

Outro evento igualmente importante, segundo a minha ótica, aconteceu em 1439, quando Johannes Gutenberg inventou um meio mecânico de impressão por tipos móveis, que consistia na montagem de placas nas quais eram inseridas os diversos caracteres das palavras, formando assim frases e parágrafos e então estampados em uma folha de papel; exercendo um impulso fundamental para a divulgação do conhecimento, antes hermético e só disponível para quem tivesse muito dinheiro ou participasse de comunidades religiosas fechadas.

Isso acontecia dado que as obras eram compiladas pelos denominados “copistas”, também conhecidos como monges copistas, que possuindo uma excelente caligrafia e um elevada cultura, operavam como verdadeiras impressoras humana, copiando literalmente as obras, transformando essas cópias em livros especialmente produzidos, utilizando peças de carneiro ou cabra, devidamente tratadas e denominadas de pergaminhos, onde imprimiam seus escritos, utilizando para isso tintas e penas de gansos.

Esses fatos históricos dos monges copistas, em certa medida, são explicitados em duas obras magníficas de Humberto Eco, escritor, filósofo, semiólogo, linguista e bibliófilo italiano, em suas obras: “O nome da Rosa” (história se passa no século XIV, em um mosteiro beneditino na Itália) e “Baldulino” (história de um monge beneditino e mestre de noviços em um mosteiro).

Gutemberg acabou revolucionando o conhecimento, através da sua massiva divulgação, a começar por sua primeira publicação que ficou igualmente famosa a Bíblia e assim abrindo espaço para que grandes obras estivessem mais acessíveis a uma vasta gama de pessoas. Daí comparar a invenção da imprensa e a explosão do conhecimento ao Google e agora, mundo se depara com IA ​​generativa, que está progredindo impetuosamente; onde a mais recentes das tecnologias de processamento de linguagem natural, desenvolvida pela OpenAi, denominada de GPT- 3, está criando um verdadeiro frenesi no seu uso, por todas as raças nas mais longínquas regiões do nosso planeta.

Hoje, utilizando-se as funcionalidades da tecnologia da GPT- 3, há um vasto campo de aplicações, como por exemplo, a facilidade na escrita de uma obra, como: “The Eyes of the Dragon"; "The GPT-3 Manifesto" escrito por Emma Watson; "Code of Conduct" e "The Last Human", romance de ficção científica; "The Secret of the Island" romance de mistério e aventura. Todas essas obras foram escrita pela GPT-3, mediante um treinamento específico envolvendo o foco  do romance. Por exemplo, a GPT-3 foi treinada para desenvolver obras de mistério e aventura; daí, após esse treinamento ela poderá produzir obras sobre o tema treinado.

É evidente que o resultado produzido pela GTP-3 não é o produto definitivo e, por via de consequência, terá que sofrer as devidas adequações e revisões do autor do projeto que submeteu a AI para auxiliá-lo na sua elaboração.

Não haverá limites nesse universo!

Questões encontram-se em acalorados debates quanto a real originalidade dessas obras, mesmo sabendo que seus autores destinaram um tempo para ajustá-las a partir dos textos gerados pela OpenAI.

As preocupações já existem, especialmente no meio universitário, onde os professores estão apreensivos quanto ao plágio, em especial devido a certa dificuldade na sua detenção e nesse sentido já existe uma versão Beta de um aplicativo, denominado de ZeroGTP que é capaz de fazer uma varredura no texto e verificar se o mesmo foi gerado pela AI GPT-3!

Do mesmo modo, como explicitou o jornalista Stephen Marche, em artigo publicado por The Atlantic: “questões práticas estão em jogo: os departamentos de humanas julgam seus alunos de graduação com base em suas redações. Confere-se um título de doutor com base na redação de uma tese. O que acontece quando ambos os processos podem ser significativamente automatizados?” (op.cit. in Adital in “O GPT-3 desafia a inércia acadêmica” – 17/01/2023).

Hoje artigos dos mais diversos estão sendo produzidos por pesquisadores com ajuda dessa ferramenta. Por exemplo, em versões denominadas de pré-print (quando o artigo ainda não foi revisado por pares) publicado na bioRxiv (The Preprint Serve for Biology) - pesquisadores apontam que o chatbot de IA pode escrever falsos resumos de artigos científicos que chegam a convencer os cientistas, visto que muitos não conseguiram identificar que o artigo foi escrito pela GPT-3.

Como bem explicita os autores do artigo da bioRxiv, publicado no 27 de dezembro de 2022: “Os limites do uso ético e aceitável de grandes modelos de linguagem para ajudar a escrita científica ainda precisam ser determinados”. Do mesmo modo recomenda: “A avaliação de resumos para periódicos e conferências médicas deve adaptar-se a política e a prática para manter padrões científicos rigorosos” e daí sugerirem “a inclusão de detectores de saída AI no processo editorial e divulgação clara se essas tecnologias forem usadas.”

Estamos diante de novos processos e novas ferramentas que tanto poderão ser usados para o bem quanto para produzir efeitos danosos, nas mais diversas áreas do conhecimento humano, inclusive nas tão conhecidas falsas narrativas, também conhecidas como “Fake News”.

Como escrevi em artigo anterior (GTP-3, GPT-4 ... GPT-n e a Evolução Tecnológica): “não adianta ir contra essa onda progressista e tecnológica, ela em verdade, é um verdadeiro Tsunami tecnológico que vai engolir todos aqueles que se oporem a ela, ou, examinando-a sobre o prisma da teoria da Evolução de Darwin, ou evoluímos em um processo adaptativo ou seremos tragados por ele”! Do mesmo modo, quando lembrei “aos críticos e céticos” que as tentativas de bloquear  os avanços da ciência e da tecnologia, a exemplo dos Luditas, , não impedirão o seu progresso!

O que precisamos desenvolver são novas abordagens adaptativas que, garantindo a utilização do aparato tecnológico, não nos leve a cair em uma cilada que conduza a humanidade a destruição da própria espécie.

O Inferno está vazio e todos os demônios estão aqui.” - Shakespeare in A Tempestade.




sexta-feira, 20 de janeiro de 2023

GTP-3, GPT-4 ... GPT-n e a Evolução Tecnológica.

 GTP-3, GPT-4 ... GPT-n e a Evolução Tecnológica



Resenha do artigo:

Fazendo um paralelo com o avanço tecnológico produzido com a invenção do transistor que, em sua primeira versão, possuía o tamanho de um botão de uma camisa social e que hoje, em face da evolução tecnológica, tem 2,6 trilhões deles contidos  em um chip do tamanho aproximado da unha de um dedo polegar, e produzido pela TSMC (Taiwan Semiconductor Manufacturing Company Limited), discutimos os avanços já percebidos com o uso da GPT-3

 Muitos vêm apresentando críticas e, em alguns casos, desdenhando a produção dessa inteligência artificial (AI), lardeando que apresenta, em muitas situações resultados grosseiros e inconsistentes!   Para esses, lembro-lhes dos Luditas da Revolução Industrial, movimento ocorrido na Inglaterra entre os anos de 1811 e 1812, quando vários trabalhadores das indústrias marchando contra aos avanços tecnológicos em curso, destruíram os teares ingleses num afã de bloquear o progresso da ciência e da tecnologia.

 Não adianta ir contra essa onda progressista e tecnológica; ela em verdade, é um verdadeiro Tsunami tecnológico que vai engolir todos aqueles que se oporem a ela, ou, examinando-a sobre o prisma da teoria da Evolução de Darwin, ou evoluímos em um processo adaptativo ou seremos tragados por ele!

 Nesse artigo, discuto o tema sobre essa ótica e mostro meu otimismo com essa fantástica trajetória da evolução humana no campo da ciência e da tecnologia, sempre na busca de uma melhor qualidade de vida e bem-estar social.

Artigo:

GTP-3, GPT-4 ... GPT-n e a Evolução tecnológica

Recordo-me do maior impulso na revolução no campo da eletrônica aplicada, quando, em 1947, os físicos estadunidenses John Bardeen, Walter Brattain e William Shockley, ganhadores do Nobel de física em 1956 , apresentaram, no Laboratório Bell Labs (laboratório da Bell Telephone Company) o primeiro  transistor de ponto. Esse transistor tinha o tamanho de um botão de uma camisa social.

Foi o início de uma grande revolução na área da eletrônica a qual, pessoalmente, considero comparável à grande revolução industrial encetada e erigida com a descoberta da máquina a vapor que causou uma grande guinada em um vasto campo do conhecimento humano.

Hoje, esse dispositivo que possuía o tamanho de um botão, sofreu gigantesca evolução tecnológica, resultando uma miríade de aplicações que envolvem desde os mais simples sistemas de controle de uma máquina de lavar roupas, até misseis balísticos, satélites, estações espaciais, marca passos etc.

Atualmente, em face das tecnologias de miniaturização e compactação, esse transistor foi reduzido de tal forma que em um chip com aproximadamente o tamanho de uma unha do dedo polegar e produzido pela TSMC (Taiwan Semiconductor Manufacturing Company Limited), mediante um processo extremamente sofisticado, chega a conter 2,6 trilhões de transistores!

Muitas revoluções tecnológicas foram duramente criticadas, a famosa frase de Ken Olson, presidente e fundador da DEC (Digital Equipaments Corporation), um dos grandes homens de negócios e fabricante de mainframes (1977), desdenhando a possibilidade do uso de computadores nas residências, disse:  "Não existem motivos para que alguém queira ter um computador em casa".

Do mesmo modo hoje venho observando vários céticos e retrógrados quando se  referem  a GPT-3 que, sem sombra de dúvidas, vem causando um verdadeiro frenesi na comunidade mundial, a ponto de seus servidores se encontrarem sobrecarregados em face do volume de acesso!

Essa máquina, criada pela OpenAI é uma rede neural de machine learning com 175 bilhões de parâmetros, conectada a um volumoso acervo de dados (Big Data – o combustível da Inteligência Artificial (AI), é comparável, segundo a minha ótica, à famosa biblioteca de Alexandria, os maiores centros de produção do conhecimento na Antiguidade, estabelecida durante o século III a.C. na cidade com o mesmo nome e no Reino Ptolemaico do Antigo Egito.

Em projeto já em curso a GPT-4 que possuirá a monstruosa quantidade de 100 bilhões de parâmetros e essa evolução não vai parar por aí ! Teremos novas máquinas, cada vez mais complexas e sofisticadas, apesar de muitos céticos continuarem a desdenhá-la por encontrar ainda, algumas inconsistências nos textos que produz!

É sempre bom lembrar que, em se tratando de um processo de machine learning com sofisticados algoritmos como é o caso da GPT-3 que, quanto mais um usuário a utilizar mais ela vai aprender e se desenvolver, chegando a acumular um grande conhecimento e aprendizado, através das perguntas que o usuário faz para essa AI.

O problema aqui está, segundo a minha ótica, em um processo de adaptabilidade evolutiva, no sentido da forma com a qual vamos aproveitar a poderosa capacidade dessa máquina, sem sermos atropelados por ela!

Aos críticos e céticos, lembro-lhes dos Luditas da Revolução Industrial, movimento ocorrido na Inglaterra entre os anos de 1811 e 1812, quando vários trabalhadores das indústrias marchando contra aos avanços tecnológicos em curso, destruíram os teares ingleses num afã de bloquear o progresso da ciência e da tecnologia.

Não adianta ir contra essa onda progressista e tecnológica, ela em verdade, é um verdadeiro Tsunami tecnológico que vai engolir todos aqueles que se oporem a ela, ou, examinando-a sobre o prisma da teoria da Evolução de Darwin, ou evoluídos em um processo adaptativo ou seremos tragados por ele!

A questão não está no uso das potencialidade dessa máquina, ainda, é claro em processo de evolução, mas na sua forma de utilizá-la. Se conduzirmos um repertório de perguntas de forma estruturada e bem elaborado, teremos um arsenal de possibilidade ao nosso dispor.

É o velho e conhecido jargão na área da computação: “se entrar lixo, vai sair lixo”, ou traduzindo para ao GPT-3 : “perguntas formuladas de forma inadequada ou incompleta, vão gerar resposta de igual padrão!”

Para finalizar, retorno a Tebas e a grande esfinge, uma antiga criatura mística com formato de um leão estendido e uma cabeça humana e seu eterno desafio: “Decifra-me ou lhe devoro”.




terça-feira, 17 de janeiro de 2023

Apocalipse Now - O Blackout das redes de internet.

APOCALIPSE NOW - O BLACKOUT DAS REDES DE INTERNET. 



Resenha do Artigo:

Com os avanços tecnológicos e consequentes reduções de custos dos equipamentos, ocorreu um crescimento acelerado no volume de usuários das redes de internet, que acabou propiciando uma verdadeira democratização no uso da internet, bastando citar que hoje, o volume de usuários das redes já ultrapassa a casa dos 5 bilhões de indivíduos o que, em certa medida, representa cerca de 63% da população mundial, estimada em 8 bilhões de pessoas.

A utilização da internet se tornou tão corriqueira que ninguém se preocupa com o seu funcionamento. Apenas estão ávidos para utilizar os serviços oferecidos por ela e essa preocupação só acontece nas ocasiões em que os serviços contratados por um usuário apresente algum problema!

Poucos se dão conta da fragilidade existente nesse meio tão importante para a economia mundial como um todo. Basta lembrar que as transações operam em todas as direções, atingindo todos os países do nosso planeta e por elas fluem uma vasta gama de informações, transações bancárias, contratos, autorizações, rastreamento de produtos, transferência de dados etc.

É nessa toada que abordamos o tema, assim como as possíveis consequência de um blackout da rede!

Artigo:

O crescimento mundial da internet foi lento e gradual, especialmente em face das dificuldades e custos na aquisição de equipamentos necessários para que um usuário pudesse navegar nas redes existente.

Com os avanços tecnológicos e consequentes reduções de custos dos equipamentos, esse ritmo de crescimento foi acelerado. Por exemplo, em 2005 as estimativas indicam que havia 1 bilhão de usuários operando nas redes; hoje esse volume atinge mais de 5 bilhões de indivíduos o que, em certa medida, representa cerca de 63% da população mundial, estimada em 8 bilhões de pessoas.

O celular por exemplo, que recebeu um elevado impulso tecnológico no seu desenvolvimento e otimização - em verdade ele hoje é um computador em na palma da mão – foi um dos principais elementos que produziram uma avalanche de novos usuários.

Hoje as comunicações e transferência de dados fluem em todas as direções para as mais variadas regiões do planeta; valendo registrar que no Brasil, atingimos a marca de 83% de usuários ativos (CETIC.BR), em especial, em face da desestatização das empresas de telecomunicação, antes sob a égide do Governo, sem capacidade de injetar investimentos necessários para atender aos requisitos de uma demanda crescente por parte dos usuários.

Claro que esses requisitos de aceleração da demanda por serviços de comunicação e redes de dados, implicam em massivos investimentos em tecnologia em suas infraestruturas básicas de apoio, como servidores, cabos de fibra ótica, softwares, roteadores etc.

Convivemos hoje com uma vasta rede de troca de dados, nas mais variadas atividades que operamos em nossas vidas. Fazer pagamentos, enviar mensagens, efetuar transações bancárias, operar na bolsa de valores na compra e venda de ativos, fazer pesquisas sobre determinado assunto, comprar produtos via ecommerce etc.

Do mesmo modo além das operações realizadas mediante o tão conhecido PIX, o qual considero como um grande treinamento para o futuro uso do real digital, temos diversas outras transações comerciais, tais como aferição dos estoques, precificação dos produtos, acompanhamentos de entregas, controle das operações logísticas etc.

Esse processo é realizado de forma tão banalizada hoje, que não nos danos conta de como ele efetivamente opera. Como denominamos na área de operações, é a infraestrutura que existe por detrás de todas as operações que garantem a sua efetividade, também conhecida como backdoor.

Há uma infinidade de equipamentos que são responsáveis e dão suporte às transferências de informações e de dados gerados em um computador, celular, tablet ou qualquer outro equipamento de comunicação, para outra unidade que vamos denominar de receptora. Seja via cabo, micro-ondas, fibra ótica ou qualquer outro meio físico disponível que garanta a operacionalidade do sistema na sua inteireza.

O certo é que hoje, a internet está tão inserida nas nossas vidas como a energia elétrica que move o nosso planeta, faz operar fábricas, habilita vários meios de transporte, VLT, Metrôs, trens etc.

Examinemos em primeiro plano a denominada “espinha dorsal da internet” também conhecidos como backbone, que são responsáveis por interligar diversos servidores de internet localizados nos mais longínquos pontos do nosso planeta. Essa espinha dorsal é constituída de uma gama considerável de cabos, em sua maioria de fibra ótica que são conectados aos servidores, computadores etc, formando uma grande rede que permite interligar um computador a outro, independente da distância que se encontre.

De forma geral, esses backbones podem interligar vários locais de um mesmo país (backbone nacionais), vários países no mesmo continente (backbones internacionais) e aqueles que conectam países de vários continentes (backbones intercontinentais). Por exemplo o backbone conhecido como RND (Rede Nacional de Ensino e Pesquisa) reúnem universidades, instituições educacionais e culturais, agências de pesquisa, hospitais de ensino e parques e polos tecnológicos e foi o primeiro instalado no Brasil com interligação internacional.

Esses backbones atendem um grande número de países por todo o planeta, através de conexões junto à provedores de serviços de internet (ISPs) e outras redes, nas mais variadas regiões. Entre os maiores deles, citamos: Level 3 Communications, Cogent Communications, Tata Communications, NTT Communications e Telia Carrier, que têm presença global e oferecem serviços em muitos países em todos os continentes.

Para avaliarmos a extensão e volume de serviços desses backbones, tomemos como exemplo um dos maiores deles, que é a Level 3 Communications, que possui uma vasta rede de fibra ótica conectando várias cidades e países ao longo do nosso planeta.

Nos EUA essa rede, que tem uma presença significativa, oferece serviços de transporte de dados, comunicações de voz e soluções de nuvem para os mais variados clientes do país.

Do mesmo modo, a sua extensão Latina Americana, também fornece serviços para os países da América do Sul, tais como Brasil, Argentina, Chile entre tantos outros.

Na Europa, essa rede atinge países como Reino Unido, França, Alemanha, Itália, entre outros; na Ásia: Japão, China, Coreia do Sul, entre outros; na África:  África do Sul, Nigéria etc. e na Austrália e Oceania, atende à Austrália e Nova Zelândia.

Como pode ser verificado, a potencialidade dessas redes é enorme e, por via de consequência, riscos não são descartados.

Hoje, praticamente, ninguém se preocupa com a internet, exceto nas ocasiões em que a rede contratada por algum usuário apresente algum problema. Poucos se dão conta da fragilidade existente nesse meio tão importante para a economia mundial como um todo. Basta lembrar que as transações operam em todas as direções, atingindo todos os países do nosso planeta e por elas fluem uma vasta gama de informações, transações bancárias, contratos, autorizações, rastreamento de produtos, transferência de dados etc.

Na verdade, a possibilidade de blackout generalizado na internet, é considerada pelos especialista, de probabilidade muito baixa, haja vista que a concepção da própria internet surgiu a partir  da criação da ARPANET (Advanced Research Projects Agency Network - Rede da Agência para Projetos de Pesquisa Avançada), construída em 1969 para transmissão de dados militares sigilosos e interligação dos departamentos de pesquisa nos Estados Unidos, dentro de uma pespectiva de sistema descentralizados para garantir, diante de situações adversas, a possibilidade de comunicação fluir entre as partes interessadas, mesmo na ocorrência de um ataque nuclear.

Dentro desse conceito a internet, que é composta por uma rede global de dispositivos e servidores interconectados, seguiu na mesma linha da ARPANET (sua “matriz mãe”) e nesse sentido tem uma certa robustez à falhas, visto que a interrupção em uma determinada área leva a que a rede se reestabeleça automaticamente com objetivo de evitar interrupções generalizadas. Do mesmo modo, o sistema possui mecanismos de backup e planos de contingência.

Mas tudo isso não descarta a possibilidade de um “cisne negro” de Taleb, e nesse sentido os principais risco de ocorrência envolvem por exemplo:

Ataques cibernéticos: que poderão ser direcionados a infraestrutura crítica da internet, como roteadores e servidores, causando interrupções nas redes;

Desastres naturais: Terremotos, furacões e outros desastres naturais são passiveis de danificar ou destruir equipamentos de rede e infraestrutura de comunicação, causando interrupções na internet;

Falhas de hardware: Problemas com componentes críticos, como dispositivos de armazenamento e servidores, podem causar problemas na internet;

Além de tantos outros, como por exemplo, danos a um cabo submarino ou mesmo uma sabotagem, bem ao estilo do que aconteceu no gasoduto Nord Stream, assim com uma falha do sistema elétrico provocada por algum problema em equipamentos ou mesmo em decorrência de uma tempestade geomagnética que pode causar transtornos nos mais diversos equipamentos eletrônicos; assim como a eventual possibilidade de um âncora de algum navio simplesmente içar um cabo de fibra ótica que interliga dois continentes!

Assim, um eventual problema, quer seja parcial ou mais generalizado, poderá causar um verdadeiro caos em todos os campos. Apenas para dimensionar a gravidade da situação, basta lembrar da ocorrência da suspensão da rede de WhatsApp no Brasil, promovida por uma decisão judicial desastrada. Não precisamos citar os transtornos decorrentes!

Do mesmo modo, uma miríade de situações entrará em colapso, como por exemplo, suprimentos de alimentos e demais produtos, muito especialmente em função de hoje, grande parte das cadeias logísticas estarem interconectadas através de sistemas que trafegam pela internet.

Igualmente teremos um caos na área financeira, principalmente quando a moeda digital estiver em franca utilização. E não precisa ir muito longe, bastando para isso pensar na paralização das transações realizadas hoje via PIX. Para ter dimensão desse problema, vale citar que no dia 20/12/2022 foram realizadas 104,1 milhões de operações via PIX. Imaginem o caos formado!

Outra área também crítica é a comunicação, hoje realizada via aplicativos como WhatsApp, Telegram, Signal etc que operam utilizando as redes de internet.

O transporte de passageiros, sofrerá também um elevado impacto, especialmente o transporte aéreo, basta lembrar, por exemplo, do recente caso ocorrido nos Estados Unidos com o sistema de controle de tráfego aéreo da Federação Federal de Aviação que levou ao cancelamento de diversos voos. assim como um volumoso número de aeronaves com atrasos nas suas rotas.

Enfim, há uma vasta gama de situações que poderão acabar em um grande caos, caso tenhamos falhas críticas nas redes de internet e não é possível mensurar, na sua totalidade, o nível de problemas que poderão advir.

Daí a velha máxima: “A melhor segurança é a eterna vigilância!”