banner
ホームページ / ニュース / 銅と繊維をブレンド
ニュース

銅と繊維をブレンド

Nov 29, 2023Nov 29, 2023

銅線ケーブルとファイバーケーブルはデータセンターのニーズを満たすために進化していますが、将来のネットワークではどちらも重要な役割を果たします。

新しいデータセンターがどこかに開設されたり、大手ホスティングプロバイダーが既存の施設を拡張したりしない週はありません。 iXConsulting の最近の調査は、その傾向を裏付けています。 第 14 回データセンター調査では、所有者、運営者、開発者、投資家、コンサルタント、設計および構築の専門家、大企業、通信会社、システム インテグレーター、コロケーション会社、クラウド サービスを含む、ヨーロッパの約 2,500 万平方フィートのデータセンター スペースを管理する企業を対象にアンケートを実施しました。プロバイダー。

全員が社内とサードパーティの両方で現在のデータセンターの設置面積を拡大したいという願望と意向を表明しており、60% が 2017 年に社内の容量を増やし、38% が 2018 年に増やすと回答しました。 3 分の 1 以上 (35%)は、2019年までにサードパーティのホスティング能力を拡大すると述べた。

現在その拡大を推進しているのは、市場の他のどの部分よりもハイパースケール クラウド サービス プロバイダーであるように見えます。 Canalys は、アマゾン ウェブ サービス (AWS)、Google、IBM、マイクロソフトの 4 大クラウド プレーヤーが単独で、2017 年第 2 四半期のクラウド インフラストラクチャ サービス市場 (IaaS と PaaS を含む) の金額ベースで 55% を占めていたと示唆しています。総額は 140 億米ドルに相当し、前年比 47% 成長しています。

所有および維持されているホスティング施設の規模に関係なく、データセンターの拡大に伴い保存、処理、送信されるデータと仮想化ワークロードの量は容赦なく増加し、基盤となるデータセンター インフラストラクチャに大きな負担をかけることになります。 そして、これは特に、現在のテクノロジーとアーキテクチャのアプローチでは、将来の拡張に備えた帯域幅と容量の深刻な不足に直面している内部ネットワークとその基盤となるケーブル配線システムに当てはまります。

個々のデータセンターにおけるケーブル配線の選択は、容量だけでなく、既存の配線との互換性、伝送距離、スペースの制限、予算など、さまざまな要因によって決まります。

非シールド (UTP) およびシールド付き (STP) ツイストペア銅線ケーブルは、過去 40 年にわたってデータセンターに広く導入されてきましたが、多くの所有者や運用者は、既存の投資を完全に廃棄することに依然として消極的です。

銅線ケーブルは購入価格が安いだけでなく、追加のハードウェアを購入する必要がなく、現場のエンジニアが迅速かつ簡単に終端できるため、導入コストも比較的低くなります。

ファイバーにはスイッチに接続するための追加のトランシーバーが必要であり、専門の終端も必要です。 対照的に、銅線ケーブルは同じ RJ-45 インターフェイスを使用しており、以前の銅線ケーブル仕様と下位互換性があるため、設置が簡素化され、長期間にわたる段階的な移行が可能になります。 銅線ケーブルの規格は、この連続性を確保するために進化してきました (ボックス: 銅線規格の進化を参照)。

現在、サーバー、スイッチ、トップ層またはラック層で 1Gbps および/または 10Gbps 接続の組み合わせに依存しているデータセンター ネットワークは、次の論理アップグレードとして 25/40Gbps になる可能性があります。 しかし、アグリゲーション層とバックボーン層のボトルネックを回避するには、他の場所、特に銅線ケーブル (Cat8 であっても) がサポートできない長距離の容量を増やすための最良のアプローチを検討する必要もあります。

多くのデータセンター事業者やホスティング会社は、たとえばアグリゲーション層やコア層で 100Gbps 以上のデータ速度をサポートできるネットワークを展開する計画を立てています。

その容量は、2018/2019 年にデータセンター サーバー上で実行されると予想される数十万、または数百万の VM によって作成される内部データ伝送要件に対処する必要があり、ほとんどの企業が 400 Gbps への移行の基礎となるソリューションを積極的に模索しています。将来。

より長いケーブル配線でそのような帯域幅が必要な場合、現実的な選択肢はファイバー、つまりマルチモード ファイバー (MMF) またはシングル モード ファイバー (SMF) のいずれかだけです。 MMF は安価で、より低い帯域幅とより短いケーブル配線を可能にします。 1980 年代初頭に通信ネットワークに初めて導入され、銅ケーブルよりも多くの容量を必要とする企業のローカルおよびワイド エリア (LAN/WAN) ネットワーク、ストレージ エリア ネットワーク (SAN)、およびサーバー ファームやデータ センター内のバックボーン リンクに急速に導入されました。サポートできるだろう。

一方、通信ネットワークは、より高価で、より大きなスループットとより長い距離を可能にするシングルモード ファイバーに移行しました。 建物内ファイバーのほとんどは依然としてマルチモードであり、ネットワーク業界は、それらの設備のデータ容量を最大化するために、ファイバー標準に向けた一連の開発を行ってきました (囲み記事: マルチモードの機能強化を参照)。

しかし、データセンターが拡大し続けるにつれて、現在の MMF 仕様の距離制限が一部の企業にとって制限的であることが判明しました。 これは、ハイパースケール クラウド サービス プロバイダーや、数キロメートルにわたる大規模なキャンパス施設を建設した Facebook、Microsoft、Google などの大量のデータを保存するプロバイダーに特に当てはまります。 たとえば、ソーシャル メディア大手の Facebook は、世界中でいくつかの大規模なデータ センターを運営しており、各データ センターは 1 つのサイトにまたがる単一の仮想ファブリック内で数十万のサーバーをリンクしています。 同じことは、東から西へのネットワーク トラフィック (つまり、同じデータ センター内の異なるサーバー間) 要件が特に高い Microsoft、Google、およびその他のクラウド サービス プロバイダーにも当てはまります。

これらの企業が理想的に求めていたのは、データセンターのニーズと予算に適合する形式のシングルモード ファイバーでした。シングル モード インターフェイスを備えた 100Gbps ファイバー ケーブル仕様は、既存のマルチモード代替品と比べてコスト競争力があり、最小限の光ファイバーを備えています。信号損失が少なく、500m ~ 2km の伝送距離をサポートします。 考えられる 4 つの仕様が、ネットワーク ベンダーのさまざまなグループによって作成されました。 Facebook は、Open Compute Project (OCP) に提出され、2011 年に OCP の一部として採用された CWDM4-MSA の 100G 仕様を支持しました。

Facebook がシングルモードに移行したのは、独自のデータセンター ファブリックを設計および構築しており、既存のケーブル配線ソリューションでは重大な制限に直面していたためです。 同社のエンジニアは、標準の光トランシーバーとマルチモード ファイバーを使用して 100Gbps で 100m に到達するには、OM4 MMF で再ケーブルする必要があると計算しました。 これは小規模なデータ センター内では機能しましたが、大規模な施設ではリンク長が長くなった場合の柔軟性はなく、将来の保証にもなりませんでした。100 Gbps を超える帯域幅アップグレードの可能性はありませんでした。

Facebook は、データセンター自体の耐用期間中持続し、複数の相互接続テクノロジーのライフサイクルをサポートするファイバーケーブルを望んでいましたが、10km を超えるリンク長をサポートする入手可能なシングルモードトランシーバーは過剰でした。 それらは不必要な範囲を提供し、その目的に対してコストが高すぎました。

そこで Facebook は、リーチとスループットに関する自社のニーズに合わせて 100G-CWDM4 MSA 仕様を変更しました。 また、データセンター環境は通信ファイバーが接続する屋外や地下環境よりも制御されているため、温度範囲も減少しました。

また、エンジニアの手が届く範囲に設置されたケーブルの耐用年数について、より適切な期待値が設定されました。

OCP には現在、Apple、Intel、Rackspace を含む約 200 社のメンバーがいます。 Facebook はまた、エクイニクス、グーグル、マイクロソフト、ベライゾンと協力して、デュプレックス SMF を使用した光相互接続規格に関する取り組みを調整し続けており、CWDM4-MSA の取り組みに基づいて構築され、OCP からダウンロードできる CWDM4-OCP 仕様をリリースしました。 Webサイト。

より優れたマルチモード ファイバー (OM5 MMF) と、Facebook が推し進めている低コストのシングルモード ファイバーの登場により、状況は大きく変わり、一部の大規模プロバイダーがホスティング施設内でのオールファイバー化を促す可能性があります。彼らは購買力を利用してトランシーバーのコストを下げることができます。

実際には、銅ケーブルまたはファイバー ケーブルのいずれかのみに依存しているデータ センターはほとんどないと考えられます。ほとんどのデータ センターにとって最適なソリューションは、当面はネットワーク インフラストラクチャのさまざまな部分で 2 つのケーブルの組み合わせに依存し続けることは避けられません。

ファイバー メディア コンバータを使用すると、ある程度の柔軟性も追加され、さまざまなケーブル形式を相互接続し、より長距離にわたる SMF/MMF リンクを介して銅線ベースのイーサネット機器の到達範囲を拡張します。

そのため、既存の Cat6/7 資産への将来のアップグレードには、25/40Gbps データ レートをサポートする Cat8 ケーブル配線が含まれ、今後数年間はサーバー、スイッチ、トップオブラック レベルでの短距離接続での容量要件の増加に対応できるようになりますが、データセンター オペレーターは、次に、コア インターコネクトとクロス キャンパス リンク用に、はるかに大容量の MMF/SMF ファイバー バックボーンを介してそのトラフィックを集約します。

現在、ほとんどの施設は、100m で 10Gbps の帯域幅をサポートし、はるかに短い距離で最大 40Gbps の高速データ レートをサポートするカテゴリ 6 (Cat6) と Cat7 の銅ケーブルの混合に依存しています。 しかし、これらの銅線ケーブル仕様の進化は、ハイパースケール クラウド サービス プロバイダーだけでなく、プライベート クラウドまたはハイブリッド クラウドでホストされるアプリケーションとサービスの使用または提供を拡大するという大きな野心を持つ大企業や通信会社の要件を満たすための基礎となっています。

2016 年、電気通信工業会 (TIA) TR-42 電気通信ケーブル システム技術委員会は、その進化の次の段階である Cat8 を承認しました。これは、標準 RJ を備えた 5 ~ 30 m のシールド付きツイスト ペア ケーブルの短距離配線で 25/40GBase-T と互換性があります。 -45 イーサネット インターフェイス。 Cat8 は到達範囲が比較的短いため、現時点では、トップ・オブ・ラックまたはエンド・オブ・ロー・トポロジーでのサーバー接続へのスイッチをターゲットとしています。

マルチモード ファイバのタイプは、コアとクラッドの直径によって定義され、IEC によって OM1 から OM4 までと指定されています。 OM1 の帯域幅要件が 100Mbps を超えたとき、その直径 62.5 μm は 50 μm (OM2) に縮小され、容量が 82m の短いリンク長で 1Gbps、さらには 10Gbps に向上しました。

それは 1990 年代の OM3 (またはレーザー最適化マルチモード ファイバー - LOMMF) によって再び強化されました。 OM3 は、OM2 の到達距離を拡大するために LED ベースの機器ではなく垂直共振器面発光レーザー (VCSEL) を使用し、300 m で 10 Gbps の伝送速度をサポートするようになりました。

OM3 に対するさまざまな機能強化により、帯域幅が向上し、最大 100 m の距離で 40/100 Gbps に達しましたが、OM4 (同じ直径 50 μm と VCSEL 装置を使用) の登場により、10 Gbps の帯域幅が 550 m まで拡張され、150 m で 100 Gbps のデータ レートが可能になりました。 4 種類の MMF ケーブルはすべて、今日のデータセンターの多くで依然として使用されていますが、帯域幅が広く、到達距離が長く、VCSEL との互換性があるため、OM3/4 が主流です。

5 番目の実装である OM5 は、以前は広帯域 MMF (WBMMF) として知られており、短波分割多重 (SWDM) を使用し、2016 年に TIA-492AAAE 標準として発行されました。OM3/4 と同じ直径 50 μm および VCSEL 装置を使用します。は、以前の製品と完全に下位互換性がありますが、各ファイバーの容量が 4 倍に増加し、二重ファイバー接続で最大 100 Gbps のはるかに高いデータ レートをサポートし、将来的には同じ 8 ファイバー MPO インターフェイスで 400 Gbps のデータ レートをサポートします。

これまでのところ、データセンターでの OM5 の導入はほとんどありません。その主な理由は、適切なトランシーバーを大量に生産しているメーカーがほとんどないためです。 サプライヤーは2017年3月にSWDM MSAグループを設立したばかりですが、フィニエアーは翌年11月に単一のファイバーペアで100GbpsをサポートするQSFP28 SWDMトランシーバーの生産を開始したと発表しました。 OM5 が 2018 年に新しいデータセンターに対する事実上の MMF 実装となることはほぼ疑いなく、その一方で通信事業者は必要に応じて新しいケーブル配線や伝送装置による既存施設のアップグレードも開始するでしょう。

供給におけるギャップと市場機会の潜在的な規模を認識し、いくつかのネットワーク ケーブル サプライヤーはマルチソース契約 (MSA) を形成し、データセンターで使用可能な形式でシングルモード ファイバーを提供するために協力しました。 過去数年間で、適切な仕様の 4 つの潜在的な候補が出現しました。

Intel と Arista Networks が主導する 100G CLR4 Alliance は、最大 2km の距離でデュプレックス SMF 上で 100Gbps の帯域幅をサポートする QSFP フォームファクタの低電力 100G-CWDM ソリューションを作成することを目的としていました。

OpenOptics 100 ギガビット イーサネット MSA は、Mellanox Technologies と光スタートアップ企業 Raniovus によって共同で設立されました。 SMF とシリコンフォトニクスの組み合わせを使用して、WDM に基づいて 100G/400G 以上の容量を提供する、2km 到達範囲の 100 GbE 仕様および 1550nm QSFP28 光トランシーバーを提案しました。 サポーターには、Ciena、Vertilas、MultiPhy、クラウド サービス プロバイダーの Oracle が含まれます。

CWDM4-MSA は、デュプレックス 25Gbps SMF の 4 レーンを使用した 2km のケーブル配線用の 100G 光インターフェイスもターゲットにしています。 創設メンバーは Avago Technologies、Finisar、Oclaro、JDSU、住友電工の 5 社で、追加メンバーには Brocade、Juniper Networks、三菱電機が含まれます。 インターフェイスはコンソーシアムによって指定されていませんが、QSFP28 フォーム ファクターが適用されることが期待されています。

パラレル シングル モード 4 レーン (PSM4) MSA は、それぞれ 25 Gbps で送信し、QSFP28 光トランシーバーをサポートする 8 本のシングル モード ファイバー (送信 4 つと受信 4 つ) で 100 Gbps を送信する、最小到達距離 500 m の仕様を定義しました。 元のメンバーには、Avago、Brocade、Finisar JDSU、Juniper Networks、Luxtera、Microsoft、Oclaro、Panduit が含まれていました。

この記事は、DCD マガジンの 12/1 月号に掲載されました。 ここからデジタル版と印刷版を購読してください。

この記事は、DCD マガジンの 12/1 月号に掲載されました。 ここからデジタル版と印刷版を購読してください。