Apoiadores:
Apoie também

Mega Trends – Uma era de transformações diante de nós, da hiperconectividade à IA quântica 

Author picture

Publicidade

Por Waldemir Cambiucci 

Boas vindas todas e todos para a coluna  “IA e Além: um olhar sobre tecnologias emergentes, tendências e transformações”, que começa hoje com esse artigo. A ideia será falar sobre temas em exploração na academia, startups e enterprise, que podem impactar de forma significativa nossos projetos, arquiteturas, modelos de negócio e nosso dia-a-dia. 

Muita coisas tem acontecido no universo de desenvolvimento, aplicações e startups recentement. Muitas novas formas de se aplicar tecnologias emergentes, novos modelos de negócio e muita aceleração na resolução de problemas diversos, seja através da combincação de inteligência artificia, IAs generativas e aplicações, seja na simples criação de novas plataformas para a entrega de aceleradores e assistentes baseados em IA. E tudo isso tem sido ainda mais acelerado com o surgimento de novos paradigmas de desenvolvimento de soluções, que terão impacto direto em nosso dia-a-dia como simples usuários ou consumidores de informação. 

Novos paradigmas no horizonte 

Assim, como inspiração para o artigo de hoje, temos diferentes fontes sobre as chamadas megatrends, ou grandes tendências em tecnologia, que possuem grande probabilidade de acontecerem; e se acontecerem, serão responsáveis por transformações críticas na forma como criamos e consumimos informação digital. Olhando fontes como MIT Technology Review – 10 Breakthrough Technologies 2024 ou o relatório Technology Predictions da IEEE COMPUTER SOCIETY, já temos insights interessantes para começar, que compartilho por aqui. Os links estão no final do artigo.  

Esses relatórios, entre outros publicados desde janeiro de 2024, apresentam diferentes tecnologias disruptivas que podemos esperar como motores de transformação. Mas podemos agrupá-las em três grandes novos paradigmas de arquitetura de aplicações, que são: 

  • Aplicações modernas hiperconectadas – um novo paradigma para a conectividade de aplicações, com baixa latência, alta velocidade e maior cobertura; 
  • Co-raciocínio com inteligência artificial – um novo paradigma para a interação entre homem-máquina, através de assistentes de IA com múltiplos modelos e multi-agentes; 
  • Computação quântica universal – um novo paradigma para supercomputação. 

Cada um desses novos paradigmas tem o potencial de transforma de forma significativa a forma como aplicações e soluções de problemas serão construídas, além da aceleração de resultados e redução do tempo para a resolução de problemas, de uma forma ainda impossível de estimar.  

Vejamos cada um desses paradigmas mais de perto. Em artigos futuros, vamos explorar em detalhes cada um desses temas. Então vamos lá! 

Aplicações modernas hiperconectadas 

Tudo começa com a chegada do 5G de forma mais ampla. Apenas para dar um contexto, veja como foi a evolução das tecnologias de comunicação até aqui e o que é esperado do 5G: 

  • 1G (Primeira Geração) – Anos 1980: 1G permitia somente chamadas de voz analógicas, sem capacidade para transmissão de dados. 
  • 2G (Segunda Geração) – Anos 1990: Com velocidades de download de até 50 Kbps e alta latência, a tecnologia de 2G trouxe a comunicação digital, possibilitando SMS e serviços básicos de dados. 
  • 3G (Terceira Geração) – Anos 2000: A velocidade de download subia até 2 Mbps, com média latência entre100 a 500 ms, o que expandiu o acesso à internet móvel, permitindo navegação na web e aplicativos mais complexos. Usamos muito o 3G! 
  • 4G (Quarta Geração) – Anos 2010: Com velocidade de download entre 100 Mbps e 1 Gbps, com uma latência média entre 50 a 100 ms, o 4G revolucionou a conectividade móvel com altas velocidades, viabilizando streaming em HD e jogos online.  
  • 5G (Quinta Geração) – Anos 2020: Finalmente, com velocidade de download de até 20 Gbps e latência inferior  a 1 ms, o 5G oferece velocidades ultrarrápidas e latência mínima, o que é essencial para edge computing, IoT industrial e aplicações em tempo real

Então imagine uma realidade de baixa latência e altas velocidades de conexão para aplicações diversas. Em paralelo ao 5G, estamos vendo uma ampliação dos links de comunicações via satélite, com novas ofertas de constelações de órbita baixa por empresas como Starlink (Starlink), Telesat (Telesat l Global Satellite Operators) ou OneWeb (Eutelsat OneWeb),  além de links de alta velocidade e baixa latência em diferentes regiões,  impulsionando uma nova era de aplicações modernas chamadas hiperconectadas.  

Podemos esperar mais dados capturados de regiões remotas ou negócios outrora desconectados participando de sistemas hiperconectados em tempo real. Essas tecnologias estão revolucionando diferentes indústrias, do agronegócio mais remoto até plataformas de perfuração de petróleo, ao permitir conexões mais rápidas e confiáveis, ampliando a massa de dados capturada do campo e do ambiente.  

No setor industrial, por exemplo, o Industrial IoT ganha força com dispositivos conectados em tempo real, otimizando processos, operações e manutenção preditiva. Na saúde, a telemedicina e cirurgias remotas tornam-se mais viáveis graças à redução da latência. Smart cities e cenários de computação de borda (edge computing) também são mais promissores com o uso de links de alta velocidade e baixa latência.  

Para os desenvolvedores, o paradigma muda com a necessidade de criar aplicações distribuídas que operam na borda, aproveitando o processamento local que também tem sido acrescentado. As novas aplicações hiperconectadas vão usar arquiteturas com comunicação contínua e de alta escalabilidade. E esse será apenas um primeiro grande impacto de transformações em megatrends, com uma maior cobertura do 5G até 2030.  

Co-raciocínio com inteligência artificial 

Uma segunda grande megatrend que já estamos vendo é o uso ampliado de IA em diferentes tipos de aplicações e atividades. Desde novembro de 2022, quando o mundo foi surpreendido com o lançamento do ChatGPT pela OpenAI, muita coisa aconteceu. Vimos uma explosão de novos modelos de IA generativa, para a criação de imagens, músicas, vídeos, avatares e presença online, novos modelos de negócio, novas startups, LLMs – Large Language Models, FMs – Foundation Models, MLLMs – Multimodal Large Language Models, SLMs – Small Language Models, RAG – Retrieval-Augmented Generation, multi-agentes e tantas outras siglas e conceitos em torno de novas aplicações com inteligência artificial, de uma forma inédita. Empresas e startups como OpenAI, Midjourney, Anthropic, e modelos de IA como LLAMA2, DALL-E, GTP 4o, GPT o1, SUNO, SORA, KLING, LUMIERE, IMAGEN FLUX, VIDU, entre outras, tornaram esse mundo mais interessante com um uso intenso de placas GPU em servidores e datacenters para treinamento de modelos, como nunca visto antes. Mais recentemente, Elon Musk anunciou o projeto de sua empresa XAI, chamado Colossus, uma máquina para treinamento de modelos de inteligencia artificial com mais de 100 mil GPU da NVIDIA. Apenas para comparação, LLAMA3 da Meta, que é um grande modelo de linguagem de grande escala LLM foi inicialmente treinado com 16 mil processadores. Em resumo, Colossus é um imenso projeto de IA com mais de 100 mil processadores para IA. Podemos apenas especular o impacto disso por enquanto.  

Assim, diferente do que vimos em tempos anteriores na evolução da área, assistentes de IA se tornaram o tema predominante em empresas e planos estratégicos, criando um misto entre HYPE e HOPE, muita expectativa, especulação e oportunidades reais! E nesse tempo de discussões acaloradas, muito debate sobre o impacto de IA para segurança cibernética, ética e princípios de construção de IA responsável (Responsible AI – RAI) e IA explicável (eXplainable AI – XAI). Mas em definitivo, IA generativa é um dos grande motores dessa revolução que temos diante de nós.  

Além do impacto esperado com os novos modelos de inteligência artificial generativa, suporte ao processamento de linguagem natural e os novos modelos multi-agentes, algo ainda maior está a caminho como um novo paradigma de aplicações, através de duas frentes:  

  • uso de modelos multi-agentes, treinados em áreas específicas de conhecimento como química, modelos moleculares ou processos específicos de indústria;  
  • treinamento de modelos de IA com dados obtidos de simulações quânticas, trazendo maior acurácia aos resultados do modelo de IA; 

A primeira grande tendência para co-raciocínio com IA vem com o uso intenso de sistemas de multiplos agentes e múltiplos modelos de IA. O que está acontecendo é que sistemas multi-agentes oferecem a habilidade de criar pesos e contrapesos, melhorando a confiabilidade e precisão dos resultados a partir de uma consulta inicial do usuário. Mas como isso funciona? 

Como ilustração, imagine um sistema multi-agente de IA para gerar/responder perguntas sobre um documento qualquer, uma proposta ou um relatório, algo comum em nosso dia-a-dia. Um sistema assim pode ser concebido com 4 agentes principais: 

  • Respondedor de Perguntas, que fornece a resposta inicial à pergunta. 
  • Verificador de Respostas, que analisa a precisão da resposta inicial. 
  • Verificador de Links, que garante que os links fornecidos sejam válidos, evitando links incorretos. 
  • Gerente, que supervisiona todo o processo e toma a decisão final sobre a validade da resposta. 

Em algumas situações, os agentes podem discordar, iniciando um “debate” interno. Nesse caso, o agente Gerente controla esses debates, podendo solicitar reescritas até que haja concordância, dentro de um limite predefinido de interações. Geralmente, os agentes chegam a um acordo após algumas iterações. Os agentes podem ser ainda conectados a dados públicos ou privados, ampliando os domínios de consulta e verificação. Então imagine exemplos com inúmeros agentes, de modelos de IA diferentes, consumindo fontes autorizadas e válidas de diferentes domínios de dados. Esse é contexto de sistemas mulit-agentes de IA que está nascendo! 

Como segunda grande tendência, imagine que alguns desses modelos de IA são tão específicos como complexos, sobre dados de química, drug discovery, dinâmica molecular ou dinâmica de fluidos. Já temos muitos dados em cada uma dessas áreas a partir de simulações feitas em datacenters de super computação de alto desempenho ou HPC – high performance computing. O próximo grande salto esperado é a integração de AI com HPC e com QUANTUM COMPUTING.  

Computação quântica em escala 

A computação quântica é um campo emergente, que combina princípios da mecânica quântica com ciência da computação para processar informações de maneiras fundamentalmente novas. Diferentemente dos computadores clássicos, nossas máquinas do dia-a-dia como servidores, desktops e smartphones, que utilizam bits binários (de 0s e 1s), os computadores quânticos usam os chamados qubits (ou bits quânticos), que são diferentes. Eles podem assumir estados 0 ou 1 ou ambos (0 e 1) ao mesmo tempo, graças às propriedades específicas da mecânica quântica. De fato, um computador quântico é probabilístico, não determinístico como os nossas queridas máquinas clássicas. Assim, um qubit pode estar em um estado chamado SUPERPOSIÇÃO, quando ambos os valores 0 e 1 são válidos ao mesmo tempo.  

Tudo isso parece muito estranho e contra-intuitivo! De fato, a computação quântica é baseada em mecânica quântica, a teoria da física que descreve o comportamento de partículas em escalas atômicas e subatômicas, como os elétrons e os fótons. Na computação quântica, aproveitamos propriedades como superposição, emaranhamento e interferência, como aceleradores para a resolução de problemas realmente complexos. Isso porque um computador quântico consegue realizar um processamento com paralelimos nativo, o que reduz a complexidade do problema. Por exemplo, um algoritmo que levaria 10 mil anos para ser finalizado em um supercomputador clássico (o que ilustra bem um problema de complexidade exponencial), poderia ser finalizado em segundos usando um computador quântico, com um número de qubits suficiente para mapear o problema. Ou seja, um computador quântico suficientemente poderoso pode reduzir a complexidade de um problema

E aqui está o grande desafio do momento: diferentes laboratórios e empresas estão avançando as tecnologias ao redor da construção de computadores quânticos robustos, com centenas ou milhares de qubits. Estamos ainda na era chamada de NISQ – Noisy Intermediate-Scale Quantum, ou de máquinas ruidosas de escala intermediária, com dezenas ou centenas de qubits, ainda exigindo um grande esfoço para a correção de erros (ainda fortemente necessário) além de curtos tempos de processamento. Mas os avanços recentes também apontam para uma aceleração nessa área, com as primeiras máquinas LISQ – Logical Intermediate-Scale Quantum sendo idealizadas, além de experimentos sobre qubits lógicos virtualizados sobre centenas ou milhares de qubits físicos, com menores taxas de erros, em tecnologias como de supercondutores, gaiolas de ions, qubits fotônicos, entre outras. E ainda novas métricas são exploradas, como o números de operações quânticas ou quanutm gates que podem ser executados pelo computador quântico, de forma eficiente e robusta. Esse tema é um universo a parte e deve exigir novas artigos por aqui, para explorarmos em detalhes seu impacto e oportunidades.  

Podemos esperar grandes novidades em um curto espaço de tempo sobre computação quântica, integrada com datacenters de HPC e modelos de IA, gerando uma revolução ainda maior para áreas como química e ciência de materiais.  

Conclusão 

Existem outras tecnologias ao redor dessas mega trends, como manufatura em escala com impressão 3D, bio engenharia, blockchain e moedas digitais, finanças decentralizadas, digital twin e IoT industrial, recuperação do clima e estratégias ESG, além de conceitos em torno de economia circular, sustentabilidade by design, smart energy, computação de borda, entre tantos. 

Mas a dica final é manter no radar esses três grandes paradigmas em especial (hiperconectividade de aplicações, IA co-racional e computação quântica), pois devem ser realidades presentes ainda nessa década, gerando ecossistemas inteiros de aplicações, startups e novos negócios. Vamos retornar a esses temas com artigos específicos no futuro, aguarde. 

Como já disse Justin Trudeau, primeiro-ministro do Canadá durante o Fórum Econômico Mundial em Davos, em 2018, que em livre tradução seria…  

“A velocidade das mudanças nunca foi tão rápida, e nunca mais será tão lenta!” 

O que vimos nos últimos anos, no mínimo confirma essa observação. Para pensar e para acompanhar! Os links para os reports citados seguem abaixo: 

MIT Technology Review – 10 Breakthrough Technologies 2024, https://www.technologyreview.com/2024/01/08/1085094/10-breakthrough-technologies-2024/  

IEEE Computer Society – Technology Predictions 2024, https://www.computer.org/resources/2024-top-technology-predictions  

Por enquanto é só! Até o próximo encontro! 

Waldemir Cambiucci 

Picture of Por Waldemir Cambiucci
Por Waldemir Cambiucci

Waldemir Cambiucci é especialista em tecnologias emergentes na Microsoft Brasil, falando com clientes corporativos sobre temas como IA, Responsible AI, Industrial IoT, soluções em nuvem e computação quântica. Com mais de 25 anos na indústria de TI, tem exercido diferentes papéis no ambiente empresarial como arquiteto de soluções, arquiteto corporativo, arquiteto chefe para soluções em nuvem, diretor de tecnologia, consultor e líder no desenvolvimento de soluções. Foi diretor do Microsoft Technology Center em São Paulo por 7 anos, tendo participado do projeto e lançado de dois centros no Brasil. Waldemir é graduado em engenharia de computação e possui mestrado pela Escola Politécnica da Universidade de São Paulo, além de MBAs em finanças corporativas e administração. Atualmente, Waldemir desenvolve seu doutorado na Poli-USP, com pesquisa em algoritmos quânticos e computação quântica distribuída. É membro do IEEE Quantum Technical Community, IBM Certified Associate Developer para Qiskit e Azure Quantum Ambassador para arquitetura de soluções quânticas na Microsoft.

Ver MAIS publicações
Picture of Por Waldemir Cambiucci
Por Waldemir Cambiucci

Waldemir Cambiucci é especialista em tecnologias emergentes na Microsoft Brasil, falando com clientes corporativos sobre temas como IA, Responsible AI, Industrial IoT, soluções em nuvem e computação quântica. Com mais de 25 anos na indústria de TI, tem exercido diferentes papéis no ambiente empresarial como arquiteto de soluções, arquiteto corporativo, arquiteto chefe para soluções em nuvem, diretor de tecnologia, consultor e líder no desenvolvimento de soluções. Foi diretor do Microsoft Technology Center em São Paulo por 7 anos, tendo participado do projeto e lançado de dois centros no Brasil. Waldemir é graduado em engenharia de computação e possui mestrado pela Escola Politécnica da Universidade de São Paulo, além de MBAs em finanças corporativas e administração. Atualmente, Waldemir desenvolve seu doutorado na Poli-USP, com pesquisa em algoritmos quânticos e computação quântica distribuída. É membro do IEEE Quantum Technical Community, IBM Certified Associate Developer para Qiskit e Azure Quantum Ambassador para arquitetura de soluções quânticas na Microsoft.

Importante: os comentários e opiniões contidos neste texto são responsabilidade do autor e não necessariamente refletem a opinião da AINEWS ou de seus controladores.

Compartilhe nas redes:

Assine agora a newsletter gratuita e participe da comunidade que está liderando a transformação digital no Brasil e no mundo:

Publicidade

 Inscreva-se na NEWSLETTER

Esteja sempre um passo à frente. Assine agora a newsletter gratuita.

 Inscreva-se em nosso LinkedIn

🔥 Últimas notícias 🇧🇷