Há uma iminente crise global de capacidade computacional que não pode ser abordada de forma sustentável da maneira como estamos fazendo as coisas agora.
Simplificando, entre os modelos de inteligência artificial (IA) que crescem exponencialmente e uma transformação digital global em curso, os data centers estão a ficar sem espaço. Suas taxas de vacância estão atingindo mínimos recordes e os preços estão a subir em resposta à procura, o que é motivo de grande desconforto entre líderes de tecnologia.
Se esta tendência continuar, em algum momento chegaremos a uma conjuntura em que não poderemos mais realizar todas as coisas que a tecnologia teoricamente nos permite fazer, porque a nossa capacidade de processar dados será limitada.
Talvez a maior preocupação seja que o potencial transformador da IA, que apenas começamos a explorar, seja limitado por restrições puramente físicas. Isto irá dificultar novas descobertas e o desenvolvimento de modelos de aprendizagem automática (ML) mais avançados, o que é uma má notícia para todos, exceto Alarmistas do apocalipse da IA.
Existe alguma maneira de evitar a crise de capacidade computacional? Dado que reduzir massivamente as nossas exigências computacionais não é realmente uma opção, a única alternativa é aumentar significativamente a capacidade, o que se resume a dois cursos de acção disponíveis: construir mais centros de dados e desenvolver melhores infra-estruturas digitais.
Mas é mais fácil falar do que fazer – eis o porquê.
Por que mais data centers não são a resposta
Até agora, a crescente procura de capacidade informática tem sido, em parte, satisfeita através da construção de mais centros de dados, com estimativas conservadoras que colocam o espaço ocupado por centros de dados a crescer a uma taxa ~40% por ano. É um número que você pode esperar que permaneça bastante estável, já que problemas de fornecimento, desafios de energia e atrasos na construção estão limitando severamente a expansão da capacidade.
Por outras palavras, hoje em dia, a procura não pode ser simplesmente satisfeita através do aumento da construção de centros de dados.
Nem deveria ser algo que aspiramos. Cada um destes armazéns do tamanho de um campo de futebol consome quantidades gigantescas de energia e água, colocando uma forte pressão sobre o ambiente, tanto a nível local como global. Um único data center pode consumir tanto eletricidade e água como 50.000 casas e a pegada de carbono da nuvem já excede o da indústria da aviação.
Crédito onde o crédito é devido — os data centers percorreram um longo caminho para minimizar seu impacto ambiental. Isto deve-se, em grande parte, a uma corrida feroz pela sustentabilidade, que impulsionou a inovação, especialmente no que se refere à refrigeração e à eficiência energética. Hoje em dia, você encontrará data centers em minas subterrâneasem o mare usando outras oportunidades de resfriamento natural, como fluxos de água do fiordetudo para reduzir o consumo de energia e água.
O problema é que isto não é escalável globalmente, nem a fervura dos nossos mares é um caminho viável a seguir. A construção de mais centros de dados — por mais eficientes que sejam — continuará a causar estragos nos ecossistemas locais e a impedir os esforços de sustentabilidade nacionais e internacionais. Ao mesmo tempo, ainda não consegue atender à demanda por recursos computacionais.
Ainda assim, dois chips são melhores que um, a menos que…
Pense dentro da caixa
… a menos que esse único chip opere com o dobro da velocidade. Para evitar a crise de capacidade, todas as esperanças repousam na melhoria da infra-estrutura digital, nomeadamente, os chips, os comutadores, os fios e outros componentes que podem melhorar a velocidade dos dados e a largura de banda, ao mesmo tempo que consomem menos energia.
Deixe-me reiterar: a evolução da IA depende de encontrar formas de transferir mais dados, sem utilizar mais energia.
Essencialmente, isso significa duas coisas. Primeiro, o desenvolvimento de chips mais poderosos e centrados em IA. Em segundo lugar, o aumento das velocidades de transferência de dados.
1. Projetando chips personalizados para IA
A infraestrutura digital existente não é particularmente adequada para o desenvolvimento eficiente de modelos de ML. As unidades centrais de processamento (CPU) de uso geral, que continuam a ser os principais componentes de computação nos centros de dados, enfrentam dificuldades com tarefas específicas da IA devido à sua falta de especialização e eficiência computacional.
Quando se trata de IA, as unidades de processamento gráfico (GPUs) se saem muito melhor graças ao melhor poder de processamento, maior eficiência energética e paralelismo. É por isso que todos os estão arrebatando, o que levou a um escassez de chips.
Mesmo assim, as GPUs inevitavelmente atingiram a mesma barreira. Eles não são inerentemente otimizados para tarefas de IA, levando ao desperdício de energia e a um desempenho abaixo do ideal no tratamento das demandas cada vez mais complexas e com uso intensivo de dados dos aplicativos modernos de IA.
É por isso que empresas como IBM estão projetando chips adaptados às demandas computacionais da IA que prometem extrair o máximo desempenho e, ao mesmo tempo, minimizar o consumo de energia e espaço.
2. Melhorar a capacidade de transferência de dados
Nenhum modelo moderno de IA opera em um único chip. Em vez disso, para aproveitar ao máximo os recursos disponíveis, você reúne vários chips em clusters. Esses clusters geralmente fazem parte de redes maiores, cada uma projetada para tarefas específicas.
Conseqüentemente, a interconexão, ou o sistema que facilita a comunicação entre chips, clusters e redes, torna-se um componente crítico. A menos que consiga acompanhar a velocidade do resto do sistema, corre o risco de ser um gargalo que prejudica o desempenho.
Os desafios dos dispositivos de transferência de dados refletem os dos chips: eles devem operar em altas velocidades, consumir o mínimo de energia e ocupar o mínimo de espaço físico possível. Com as interconexões elétricas tradicionais atingindo rapidamente seus limites em termos de largura de banda e eficiência energética, todos os olhos estão voltados para a computação óptica – e para a fotônica de silício, em particular.
Ao contrário dos sistemas eléctricos, os sistemas ópticos utilizam luz para transmitir informações, proporcionando vantagens importantes nas áreas que importam – os sinais fotónicos podem viajar à velocidade da luz e transportar uma maior densidade de dados. Além disso, os sistemas ópticos consomem menos energia e os componentes fotônicos podem ser muito menores do que seus equivalentes elétricos, permitindo designs de chips mais compactos.
As palavras-chave aqui são “pode ser”.
As dores crescentes da tecnologia de ponta
A computação óptica, embora extremamente rápida e eficiente em termos energéticos, enfrenta atualmente desafios em termos de miniaturização, compatibilidade e custos.
Os interruptores ópticos e outros componentes podem ser mais volumosos e complexos do que os seus homólogos electrónicos, levando a desafios na obtenção do mesmo nível de miniaturização. No momento, ainda não encontramos materiais que possam atuar como um meio óptico eficaz e que sejam escaláveis para aplicações de computação de alta densidade.
A adoção também seria uma batalha difícil. Os data centers são geralmente otimizados para processamento eletrônico, não fotônico, e a integração de componentes ópticos com arquiteturas eletrônicas existentes representa um grande desafio.
Além disso, assim como qualquer tecnologia de ponta, a computação óptica ainda precisa ser comprovada em campo. Há uma falta crítica de pesquisas sobre a confiabilidade a longo prazo dos componentes ópticos, especialmente sob condições de alta carga e alto estresse, típicas dos ambientes de data center.
E ainda por cima: os materiais especializados necessários nos componentes ópticos são caros, tornando a adoção generalizada potencialmente proibitiva em termos de custos, especialmente para centros de dados mais pequenos ou aqueles com restrições orçamentais rigorosas.
Então, estamos nos movendo rápido o suficiente para evitar a crise?
Provavelmente não. Definitivamente, não devemos parar de construir data centers no curto prazo.
Se servir de consolo, saiba que os cientistas e engenheiros estão muito conscientes do problema e trabalhando duro para encontrar soluções que não destruam o planeta, ultrapassando constantemente os limites e fazendo avanços significativos na otimização do data center, no design de chips e em todas as facetas do desenvolvimento. computação óptica.
Somente minha equipe quebrou três recordes mundiais em taxa de símbolos para interconexões de data centers usando modulação de intensidade e abordagem de detecção direta.
Mas existem desafios sérios e é essencial enfrentá-los de frente para que as tecnologias modernas realizem todo o seu potencial.
O professor Oskars Ozoliņš recebeu seu Dr.sc.ing. Licenciado em comunicações ópticas pela Universidade Técnica de Riga (Letónia) em 2013 e habilitado em física com especialização em comunicação óptica pelo KTH Royal Institute of Technology em 2021. É autor de cerca de 270 publicações em revistas internacionais, contribuições em conferências, convidados palestras / tutoriais / palestras /palestras, patentes e capítulos de livros. Você pode segui-lo no LinkedIn aqui.