本記事の結論から始めましょう –ネットワークアーキテクチャを改善し、速度を25%向上させました。 当社のデータセンターIPは、これまで以上に高速であるだけでなく、市場最速です!どのように実現したのか?続きを読んでご確認ください。
速度はアドレスを形容する性質ではありません。それは「速い家に住んでいますか?」と尋ねるようなもので、実際の移動速度を決定するのは車の速度など他の変数です。しかしネットワークの世界では、IPの速度を決定する要素がいくつか存在します:
- 経路の長さ – 目的のサイトにリクエストを送信すると 、そのリクエストは複数のサーバーを経由して、サイトをホストしているサーバーに到達します。その後、要求された情報が返されます。あなたと目的のサイトとの距離が長いほど、リクエストの所要時間は長くなります。
- アーキテクチャ – プロキシ経由でリクエストを行う場合 、そのリクエストの経路に追加のネットワークセグメント(ホップ)が加わります。通常の経路ではなく、少なくとも1つ以上の追加ホップ(あなたのIPをホストするサーバー)を経由する必要が生じます。多くの場合、追加ホップは複数存在しますが、これはサービスプロバイダーのアーキテクチャに依存します。 ホップ数が少ないほどリクエストは高速化します。
- 帯域幅(BW) – 使用するデータセンターのIPアドレスは サーバー上でホストされており、各サーバーには一定の帯域幅容量が設定されています。例えば、1ギガバイト毎秒の接続を持つサーバーは、100メガバイト毎秒の容量を持つサーバーよりも、特定の瞬間に多くのトラフィックを処理できます。 これは、あなたと他の多くの顧客が同じサーバーにホストされたIPを使用している場合、帯域幅が低いとユーザーのリクエストがボトルネックで「詰まり」、プロキシ速度が遅くなる可能性があることを意味します。一方、帯域幅が高いと時間を節約でき、リクエストがより高速に処理されます。
- 中央処理装置(CPU)使用率 – サーバーごとに CPUリソースの容量が異なり 、ユーザーによるCPUのアップグレードやダウングレードも可能です。CPUが低いサーバーは、CPUが高いサーバーよりも処理できるリクエスト数が少なくなります。
改善点
- リクエスト経路の最適化 – リクエストが同一地理位置情報を通過するよう確保し、ユーザーと対象サイト間のリクエスト経路を短縮
- 不要な中継を排除 – アーキテクチャ設計により 、リクエストが通過する中継数を最小限に抑えています
- ボトルネックの排除 – 負荷分散サーバー群にリクエストを 分散し、特定サーバーの過負荷を防止
- 帯域幅とCPUリソースの妥協なし – 世界最大級のプロキシネットワークとして、当社のネットワークアーキテクチャは大容量処理に対応し、お客様のニーズに合わせて継続的にアップグレードされています
過去数週間、当社はアーキテクチャの改善に注力し、ネットワーク速度を25%向上させました。これにより、市場最速のプロキシをお客様に提供できます。
当社は常に改善を続けており、今や「高速プロキシはありますか?」という問いへの答えは、常に「はい!」です。