A desagregação do data center separa a computação, a memória, o armazenamento e a rede em recursos independentes e agrupados, em vez de bloqueá-los dentro de limites fixos de servidor. Essa separação cria uma nova dependência arquitetônica: a camada de interconexão entre esses pools deve fornecer largura de banda suficiente, latência suficientemente baixa e alcance suficiente para fazer com que todo o sistema se comporte como uma malha coordenada. A interconexão óptica é a tecnologia de transporte que preenche cada vez mais essa função - especialmente onde os links de cobre atingem limites físicos de distância, potência e integridade do sinal.
Este artigo explica como a interconexão óptica oferece suporte a arquiteturas desagregadas, onde ela supera o cobre, como ela se relaciona com o CXL e a óptica co{0}}embalada e quando faz sentido prático adotá-la.

O que é desagregação de data center?
Em um modelo tradicional-centrado em servidor, CPU, memória, armazenamento e rede são agrupados em um único chassi. Você compra um servidor e obtém uma proporção fixa de todos os quatro -, quer sua carga de trabalho precise dessa proporção ou não. A desagregação do data center separa esse pacote. Cada tipo de recurso é organizado em seu próprio pool, e as cargas de trabalho extraem apenas o que precisam de cada pool em uma malha compartilhada.
Isto é importante porque as cargas de trabalho modernas raramente são equilibradas. Um grande trabalho de treinamento de modelo de linguagem pode saturar a memória da GPU e a largura de banda leste{1}}oeste e quase não afetar o armazenamento local. Um pipeline de análise-em tempo real pode precisar de grande capacidade de memória, mas apenas de computação moderada. Em um projeto centrado no servidor, essa incompatibilidade leva à ociosidade de recursos: ciclos de CPU ociosos ao lado de memória esgotada ou capacidade de armazenamento que nenhuma carga de trabalho está usando.
OProjeto de computação aberta (OCP)tem impulsionado projetos de rack desagregados desde meados da década de 2010, e hiperescaladores como Meta e Microsoft implantaram armazenamento desagregado e rede em escala. O surgimento deLink Expresso de Computação (CXL)estendeu essa visão à desagregação de memória, tornando a arquitetura cada vez mais prática para uma ampla gama de ambientes.
Por que os designs tradicionais-centrados em servidores atingem um obstáculo
Duas forças estão empurrando as equipes de infraestrutura para a desagregação: pressão de utilização e pressão de largura de banda.
Do lado da utilização, os pacotes de servidores fixos criam desperdício em grande escala. Pesquisas da indústria sugerem que, em média, cerca de 25% da capacidade DRAM em servidores convencionais não é utilizada, mesmo que a memória represente quase metade do custo total do servidor. Multiplicada por milhares de nós, essa capacidade ociosa representa uma carga significativa de capital e energia.
No lado da largura de banda, clusters de treinamento de IA e análises de alto{0}}desempenho geram padrões de tráfego que diferem bastante das cargas tradicionais de serviço norte-sul da Web-. Essas cargas de trabalho produzem intenso tráfego leste{4}}oeste - de GPU-para-GPU, acelerador-para-memória e nó-para-nó - em centenas ou milhares de endpoints. As topologias tradicionais centradas-no servidor com passagens curtas de cobre entre caixas fixas não foram projetadas para esse padrão. À medida que as velocidades dos links aumentam de 400G para 800G e além, as limitações elétricas do cobre tornam-se mais difíceis de contornar.
Como funciona a interconexão óptica em um data center desagregado?
Depois que os recursos de computação, memória e acelerador ficam em pools separados, a malha que conecta esses pools se torna a camada-crítica de desempenho. A interconexão óptica atende essa camada convertendo sinais elétricos em luz, transmitindo dados através demodo único-oufibra multimodoe convertendo de volta para elétrico na extremidade receptora.
A física do transporte óptico confere-lhe vantagens estruturais para este trabalho. Os sinais de luz na fibra sofrem muito menos atenuação por metro do que os sinais elétricos no cobre, o que significa que os links ópticos podem manter a qualidade do sinal em distâncias mais longas sem o condicionamento de sinal que consome muita energia (retemporizadores, DSPs, equalizadores) que o cobre exige em velocidades mais altas. A 800 Gbps, o cobre passivo é prático até cerca de 3–5 metros. Cabos elétricos ativos estendem isso para talvez 7 metros. Os links ópticos abrangem rotineiramente 100 metros a 2 quilômetros na mesma taxa de dados, e a óptica coerente pode atingir dezenas de quilômetros.

Numa arquitetura desagregada, esta vantagem de alcance não é abstrata. Ele determina diretamente a que distância os pools de recursos podem ficar enquanto ainda se comportam como um sistema unificado. Especificamente:
- Dentro do rack:O cobre ainda domina para conexões muito curtas - servidor-para-parte superior-do-switch de rack, GPU-para-GPU dentro de uma bandeja. Em distâncias inferiores a 2 a 3 metros, o cobre é mais simples, mais barato e tem-latência mais baixa.
- Rack-a-rack (2–100 m):É aqui que a interconexão óptica se torna o padrão prático em 400G e acima. Conectar um rack de computação a um pool de memória em um rack adjacente ou vincular bandejas de GPU em uma linha normalmente requer a densidade de largura de banda e o alcance que a fibra fornece.Conjuntos de cabos de fibra ópticaeConectividade MPO/MTPsão padrão para esses caminhos.
- Sala-a-sala e prédio-a-edifício (100 m–10+ km):Somente o transporte óptico é viável nessas distâncias e velocidades. Esse escopo é importante para a desagregação em escala-de campus, onde pools de armazenamento, computação de backup ou recursos de{2}recuperação de desastres ficam em prédios separados.
Interconexão óptica versus cobre em data centers desagregados
A escolha entre óptico e cobre não é binária -, é dependente do escopo-. Aqui está como os dois se comparam entre os fatores que mais importam em um design desagregado:
| Fator | Cobre | Fibra Óptica |
|---|---|---|
| Alcance prático em 800G | 3–7 m (passivo/ativo) | 100 m – 10+ km (dependendo do tipo de óptica) |
| Densidade de largura de banda | Menor por cabo; os cabos são mais grossos em velocidades mais altas | Maior por cabo; fibra fina suporta altas contagens de portas |
| Potência por bit (maior alcance) | São necessários - DSPs, retimers e condicionamento de sinal mais altos | Abaixe com alcance e velocidade equivalentes |
| Latência (curto alcance) | Muito baixo (cobre passivo não tem sobrecarga de conversão) | Um pouco maior devido à conversão eletro{0}}óptica |
| Imunidade EMI | Suscetível a interferência eletromagnética | Imunidade - importante em ambientes densos e de alta-potência |
| Peso do cabo e fluxo de ar | Mais pesado e volumoso em contagens mais altas | Mais leve e mais fino, melhor para fluxo de ar em racks densos |
| Custo (curto alcance, baixa velocidade) | Menor adiantamento | Maior adiantamento |
| Custo (nível-do sistema, em escala) | Pode ser maior quando se considera potência, refrigeração e limites de alcance | Frequentemente menor custo total de propriedade em 400G+ e caminhos mais longos |
| Melhor ajuste em design desagregado | Links curtos intra-bandeja, intra{1}}rack | Rack-a-rack, fileira-a-fila, sala-a-sala e escala-de campus |
A conclusão prática: use cobre onde a simplicidade-de curta distância ainda vence. Use óptica onde o alcance, a densidade da largura de banda, a eficiência energética ou o gerenciamento de cabos se tornam a restrição obrigatória. Em um ambiente desagregado, a parcela óptica da interconexão total aumenta porque a própria arquitetura cria caminhos de banda-mais longos e com maior largura de banda entre pools de recursos separados. Para uma comparação mais profunda dos tipos de mídia, consultecabos de fibra óptica versus cabos de cobre: o que é certo para sua implantação.

Principais benefícios da interconexão óptica para desagregação
Maior densidade de largura de banda para pools de recursos separados
A desagregação aumenta o volume de tráfego que atravessa a camada de interconexão porque os recursos que antes estavam co-localizados agora se comunicam pela malha. A fibra óptica suporta essa demanda com maior largura de banda por{2}}fibra e mais fibras por cabo. Um únicocabo de fibra de fitapode transportar centenas de fibras em uma seção-compacta, permitindo o tipo de densidade de porta que clusters de GPU desagregados e pools de memória exigem.
Menor consumo de energia e carga térmica em escala
A eficiência energética é mais importante em um projeto desagregado porque a camada de interconexão transporta uma parcela maior do tráfego total do sistema. Em 800G e acima, links de cobre em distâncias moderadas exigem processamento-DSP com uso intensivo de energia em ambas as extremidades. Links ópticos em velocidades e distâncias equivalentes consomem menos energia por bit. A documentação técnica da NVIDIA sobre sua-plataforma de comutação óptica em pacote relata umRedução de 3,5× no consumo de energiaem comparação com transceptores conectáveis tradicionais. Na escala do data center, essa diferença se traduz diretamente em contas de eletricidade mais baixas e em infraestrutura de refrigeração reduzida.
Dimensionamento modular e independente
Uma das principais promessas da desagregação é que a computação, a memória e o armazenamento possam ser dimensionados em taxas diferentes. A interconexão óptica apoia essa promessa porque adicionar capacidade a um pool de recursos não requer redesenhar toda a estrutura.Módulos ópticos conectáveispode ser atualizado ou adicionado de forma incremental - de 400G para 800G para 1,6T - sem alterar a planta de fibra subjacente.
Flexibilidade para cargas de trabalho heterogêneas
Quando os recursos são agrupados e conectados por meio de uma malha óptica de alto-desempenho, as equipes de infraestrutura podem atribuir recursos a cargas de trabalho dinamicamente, em vez de moldá-las em torno de configurações fixas de servidor. Essa flexibilidade é especialmente valiosa em ambientes onde jobs de treinamento de IA, inferência-em tempo real, pipelines de análise e aplicativos com uso intenso-de armazenamento coexistem e competem por diferentes tipos de recursos.
Como a interconexão óptica se relaciona com CXL e co{0}}óptica empacotada
CXL: a camada de protocolo para memória e compartilhamento de recursos
CXL (Compute Express Link) e interconexão óptica resolvem diferentes partes do problema de desagregação. CXL é um protocolo de padrão aberto - criado na camada física PCIe - que permite a comunicação-coerente de cache entre CPUs, dispositivos de memória e aceleradores. Ele define como os recursos separados podem ser agrupados e compartilhados de forma eficiente no nível de software e protocolo.
O Consórcio CXL, cujos membros incluem Intel, AMD, NVIDIA, Samsung, Microsoft, Google e Meta, lançou o CXL 3.1 em novembro de 2023 com suporte explícito paracomutação de vários-níveis e desagregação-baseada em malhaalém do rack. O CXL 3.0 introduziu suporte para até 4.096 nós em uma malha unificada, permitindo o pool de memória em-escala em rack e potencialmente em escala-de cluster.
A interconexão óptica é o transporte físico que pode transportar tráfego CXL (e outros protocolos) entre esses nós distribuídos. Uma equipe que avalia o pool de memória-baseado em CXL e uma equipe que avalia a interconexão óptica geralmente trabalham na mesma iniciativa de desagregação de diferentes ângulos - uma abordando a lógica de compartilhamento de protocolo e recursos-, a outra abordando o transporte físico.

Óptica co-embalada: aproximando a óptica do chip
A óptica co-embalada (CPO) vai além, integrando mecanismos ópticos diretamente no mesmo substrato de pacote que o switch ASIC ou GPU, em vez de depender de transceptores conectáveis separados conectados por traços elétricos em um painel frontal. Isso elimina os caminhos elétricos mais longos e que consomem mais-energia no sistema.
No GTC 2025, a NVIDIA anunciou seu primeiroplataformas de comutação fotônica de silício co{0}}empacotadas(Quantum-X Photonics and Spectrum-X Photonics), oferecendo largura de banda de até 409,6 Tb/s com 512 portas a 800 Gb/s. O CEO da NVIDIA, Jensen Huang, observou que escalar para um milhão de GPUs usando transceptores conectáveis convencionais consumiria cerca de 180 MW apenas em energia do transceptor - um número insustentável que o CPO foi projetado para resolver.
O CPO não é algo que toda equipe que avalia a desagregação precisa implantar hoje. Módulos ópticos conectáveis continuam sendo o formato dominante para a maioriacentro de dados fibra ópticaimplantações e continuarão a sê-lo pelo menos até o final da década de 2020. Mas o CPO representa a direção do roteiro óptico, e as equipes que planejam grandes clusters de IA ou malhas desagregadas da próxima-geração devem acompanhar de perto sua maturidade.
Quando a interconexão óptica faz mais sentido?
Ambientes pesados de IA e acelerador-
Os clusters de treinamento em IA estão entre os casos de uso mais fortes para interconexão óptica em um contexto desagregado. Esses sistemas geram enorme tráfego leste{1}}oeste entre GPU-para-GPU e GPU-para-caminhos de memória. À medida que os tamanhos dos clusters crescem de centenas para milhares de GPUs, as demandas de alcance e largura de banda excedem rapidamente o que o cobre pode suportar. Na arquitetura GB200 NVL72 da NVIDIA, por exemplo, os custos de rede (incluindo transceptores ópticos) representam de 15 a 18% do custo total do cluster, e os transceptores ópticos respondem por cerca de 60% desse custo de rede. Os argumentos económicos e de desempenho para optimizar a camada óptica são substanciais.
Pool de memória e infraestrutura combinável
Se sua equipe estiver avaliando o pool de memória-baseado em CXL, a camada de transporte físico deverá oferecer suporte a essa separação sem adicionar latência inaceitável ou limitar a escala. O CXL 3.1 visa explicitamente a desagregação em escala-de malha além do rack, o que significa que os caminhos de interconexão abrangerão distâncias maiores do que os barramentos de memória intra{4}}tradicionais do servidor. Os links ópticos são a escolha natural para esses caminhos.
Ambientes de grande-escala com necessidades de escalonamento desiguais
A interconexão óptica também faz mais sentido quando a computação, a memória e o armazenamento precisam ser dimensionados em taxas diferentes. Se sua capacidade computacional estiver crescendo 3x por ano, mas o armazenamento estiver crescendo 1,5x, uma arquitetura desagregada permite expandir cada pool de forma independente - e a interconexão óptica torna isso fisicamente possível sem redesenhar o cabeamento a cada vez.
Quando NÃO faz sentido
A interconexão óptica não é o ponto de partida certo para todos os ambientes. Se seu data center executa principalmente cargas de trabalho-de uso geral balanceadas em servidores convencionais, e seu tráfego de rack-para{3}}rack é modesto e bem{4}}servido pela infraestrutura de cobre existente, o custo e a complexidade de uma primeira malha óptica-podem não ser justificados. Da mesma forma, se você estiver operando em uma escala em que algumas dezenas de servidores atendam às suas necessidades, a própria desagregação poderá introduzir mais complexidade operacional do que economizar. A arquitetura compensa quando a escala, a heterogeneidade e o desequilíbrio de recursos são reais e mensuráveis - e não hipotéticos.
O que avaliar antes da implantação
1. Mapeie seu gargalo real
Comece com uma pergunta clara: qual é a restrição vinculativa? É de alcance (caminhos de cobre muito curtos para o layout do seu rack)? Densidade de largura de banda (taxa de transferência insuficiente por cabo para alimentar seu cluster de GPU)? Energia (ligações elétricas consumindo muita potência em 400G+)? Utilização de recursos (servidores superprovisionados em um eixo e famintos em outro)? A interconexão óptica é mais valiosa quando o gargalo é físico e mensurável, e não quando é adotada como um gesto geral de modernização.
2. Avalie o custo total do sistema, não o custo do cabo
Um erro comum é comparar o preço de um cabo de cobre com o preço de umcabo ópticoem isolamento. Essa comparação é enganosa. A comparação significativa inclui consumo de energia, sobrecarga térmica (e o custo de resfriamento que isso cria), densidade de portas por unidade de rack, alcance utilizável, flexibilidade de atualização e custo de recursos ociosos na arquitetura mais ampla. Em muitos ambientes desagregados de 400G e superiores, o custo total de propriedade da fibra é inferior ao do cobre quando se considera o sistema completo.
3. Verifique a compatibilidade e a prontidão operacional
Avaliartestes de cabos de fibra ópticarequisitos, interoperabilidade de módulos, ferramentas de monitoramento e familiaridade operacional de sua equipe com fibra. Módulos ópticos conectáveis (OSFP, QSFP-DD) são bem-padronizados e amplamente suportados, mas sua equipe de operações deve estar confortável com o manuseio, limpeza e solução de problemas de fibra antes de implantar em grande escala. Considere começar com um domínio piloto onde você possa validar esses fatores operacionais.
4. Planeje a longevidade da planta de fibra
Uma vantagem significativa da infraestrutura de fibra é que a planta de fibra passiva - os cabos, painéis de conexão e caminhos - pode suportar múltiplas gerações de tecnologia de transceptor. Um bem-projetadoconectividade do data centerA planta de fibra instalada hoje para 400G pode suportar atualizações de 800G e 1.6T trocando transceptores, sem puxar novos cabos. Isto torna o investimento inicial em fibra mais defensável num horizonte de planeamento de 10 anos.
Um caminho prático de adoção
Etapa 1: Identifique um domínio restrito.Procure o local onde o alcance do cobre, a potência, a densidade da largura de banda ou o encalhamento de recursos já estão criando problemas mensuráveis. Isso pode ser uma expansão de cluster de GPU, um gargalo-de{2}}de rack em um ambiente de análise ou um piloto de pool de memória.
Etapa 2: Pilotar e validar.Implante a interconexão óptica nesse domínio. Meça o comportamento da latência, o consumo de energia, a complexidade operacional e a economia de expansão em relação à sua linha de base existente.
Etapa 3: Expanda com base em evidências.Use os dados do piloto para construir o caso comercial e técnico para uma adoção mais ampla. A desagregação e a migração óptica raramente são melhor tratadas como um único projeto-big bang. A implementação em fases permite que você aprenda, ajuste e desenvolva confiança organizacional.
Lista de verificação de decisão: a interconexão óptica é adequada para sua iniciativa de desagregação?
- As distâncias de link-a{1}}de rack ou de sala{2}}a{3}}sala excedem o alcance prático do cobre na velocidade desejada?
- Você está planejando implantar velocidades de link de 400G ou superiores no curto prazo?
- O consumo de energia da interconexão elétrica está se tornando uma parte significativa do orçamento de energia do seu data center?
- Você está avaliando pool de memória-baseado em CXL, infraestrutura combinável ou expansão de cluster de GPU?
- A ociosidade de recursos (computação ociosa, memória ou armazenamento bloqueado em servidores fixos) é um problema de custo mensurável?
- Seu ambiente precisa dimensionar a computação, a memória e o armazenamento em taxas diferentes?
Se três ou mais destas situações se aplicarem, a interconexão óptica merece uma avaliação séria como parte do seu roteiro de desagregação.
Perguntas frequentes
O que é interconexão óptica em um data center?
A interconexão óptica é uma tecnologia de transporte que utiliza sinais de luz através decabos de fibra ópticapara transportar dados entre dispositivos de rede, servidores, switches, sistemas de armazenamento e pools de recursos dentro e entre data centers. Ele oferece maior largura de banda, maior alcance e menor consumo de energia por bit em comparação ao cobre em velocidades equivalentes - o que o torna especialmente importante para arquiteturas desagregadas e orientadas-para IA.
Como a interconexão óptica difere do CXL?
Eles operam em diferentes camadas. A interconexão óptica é uma tecnologia de transporte físico - que move bits do ponto A ao ponto B usando luz. CXL é um padrão de protocolo que define como CPUs, memória e aceleradores se comunicam de forma coerente. A interconexão óptica pode transportar tráfego CXL, mas o CXL também funciona em links elétricos para conexões-de curto alcance. As equipes geralmente avaliam ambos simultaneamente porque a desagregação cria demanda por melhores protocolos (CXL) e melhor transporte físico (óptico).
O cobre e o óptico podem coexistir em um data center desagregado?
Sim, e normalmente o fazem. A maioria dos ambientes desagregados usa cobre para conexões intra{1}}de rack muito curtas (menos de 3 a 5 metros), onde permanece mais simples e barato, e fibra óptica para rack-a-rack, linha-a-linha e caminhos mais longos onde as limitações de alcance, potência e densidade do cobre se tornam vinculativas. A decisão depende do-escopo, não de tudo-ou-de nada.
O que é co-óptica empacotada e preciso dela agora?
A óptica co{0}}embalada (CPO) integra mecanismos ópticos diretamente no mesmo pacote que o switch ASIC ou processador, eliminando a necessidade de transceptores conectáveis separados e reduzindo o consumo de energia e a latência. A NVIDIA e a Broadcom estão implantando CPO em plataformas de rede de IA da próxima-geração. A maioria dos data centers não precisa de CPO hoje -módulos ópticos conectáveiscontinua sendo o padrão -, mas o CPO está no roteiro para infraestrutura de IA em grande-escala no período de 2026 a 2028.
Quando NÃO devo buscar a desagregação com interconexão óptica?
Se suas cargas de trabalho estiverem bem{0}}equilibradas entre computação, memória e armazenamento; sua escala é modesta (algumas dezenas de servidores); e sua infraestrutura de cobre existente atende às necessidades de largura de banda-atuais e de curto prazo sem esforço - a complexidade adicional de desagregação e migração óptica pode não valer o investimento. Comece com o gargalo, não com a palavra da moda.
Que tipos de fibra são usados na interconexão óptica de data centers?
Fibra-monomodoé usado para links de-distâncias mais longas e de{1}}velocidade mais alta (geralmente de rack-para-rack e além).Fibra multimodoé comum para conexões mais curtas entre-data centers-de até algumas centenas de metros. A escolha depende do alcance, velocidade e perfil de custo exigidos de cada link.




