Cloud&SDN研究所の加藤です。11月06日から11月08日シドニーにて開催されたOpenStack Summitに参加してきました。研究所ではCloud基盤およびNetwork Function Virtualization (NFV) 基盤としてOpenStackの動向を注目し、できる限りの参加を努めています。私は2015年のVancouver以降は参加ができず他のメンバーに任せていましたが、久々に参加することができました。今回は少し間を開けた視点を含めてレポートを書いていければと思います。

OpenStackとは?(簡易説明)
OpenStackは2010年から始まったオープンソースによるクラウド基盤です。約半年に1回のバージョンアップを行い続け、はや16番目の「P(ike)」が安定版のリリースになります。そして近々、17番目の「Q」eensがリリースされる予定です。クラウド基盤とは一口にいっても仮想マシンだけではなく、内部のネットワークリソース、ストレージ等々包括的に見る仕組みであり、それぞれの製品のオーケストレーター (統合管理基盤) としても期待されているソフトウェア群になります。
Keynoteを含む全体の雰囲気
毎回のSummitはKeynotes(基調講演)で始まります。そこではOpenStack Foundationから見た取り組み話とOpenStack事例が話され、手短に全体の動向とプロダクション事例を知る事ができます。これまでのKeynotesは初日から2日間それぞれで2時間ずつ用意されていましたが、今回は会期が4日間から3日間と短くなったこともあり、初日のみとなりました。Keynotes参加者は会場のICC Sydney DARLING HABOR Theatre (2500 seats) を丁度埋めるくらいの人の入りで、私が参加した時(2014年Atlanta, 2015年Vancouver)はいずれも4000人超えだったため規模が小さくなったように感じました。これはコミッターに対しての参加費保証の変更や、同時開催されていた開発者向けのDesign Summitが別開催になって来る人の層が変わった等の事情があったようです。
Foundationで集めた情報は毎度面白く、こういったコミュニティの勢いや、どの技術を期待されているかを可視化してくれるため、一目で彼らの取り組みが分かります。OpenStack自体の勢い衰えず、直近は欧州、米国で着々とのサービス展開事例が増えているようです。

ここ数回のSummitでコンテナ技術について語られていましたが、今回も継続でコンテナ技術に熱がありました。自分の参加していた頃からエンドのアプリケーション用コンテナ技術としてOpenStack Magnumが注目されていましたが、最近はGoogle製のKubernetesの活用を注目しているようです。(そして、最近はMagnumはあまり触れられていないようにも見えます)。Kubenetesの使い方はエンド側のアプリケーション用コンテナの管理だけではなく、OpenStack自体をKubernetes上に構築することもできます。それがOpenStack Helmというプロジェクトです。Keynotes中では、そのHelmで作った基盤上のOpenStackをアップグレードするというライブデモも行なわれました。大体のデモンストレーションは現地で失敗するのがお約束ですが、そのような事もなく無事にアップデート完了し、Helmの完成度を見せてくれました。サービスを止めずのOpenStack基盤アップグレードは、毎度毎度、管理者の頭を悩ませるところかと思います。OpenStackで使うコンポーネントがコンテナ化されたことによりデプロイと運用がさらに楽になりつつあるのかもしれません。(しかし、デモではない現実はまだまだ厳しいのでしょうが)
また、今回は特に中国企業の勢いが凄く、毎回のKeynotes中に発表される優秀ユーザ事例であるSuperuser Award に「China Raillway High-Speed (CRH)」「Tencent Cloud」が受賞しました。先述の欧州、米国の成長もですが、中国も着々とOpenStackの実績を積んで独自のパブリッククラウドの展開や、交通系インフラの基盤ができ始めているようです。こういった沢山の事例の中、Keynoteや多くのセッションで”Challenge”という言葉を耳にしました。OpenStack自体の在り方や立ち位置はだいぶこなれて来て、OpenStack自体のビジネスおよびそれを用いたサービスがビジネスとして固まってきたこと、その中での新しい取り組みを意識し始めているように感じました。逆を言えばビジネス寄り過ぎて、濃い開発向けの話題が少なくなっていたような気もします。

今年の加藤的所感
3日間の加藤の参加セッション
- Day1
- Operating OpenStack cloud for a high reliable ISP platform
- NFV Data Plane Performance Benchmarking in Production Deployments with OPNFV NFVbench
- Service Chaining Virtual Security Functions
- Implications of 5G RAN and IoT on OpenStack based edge computing
- Multicloud Networking – An Overview
- Masakari – Project Onboarding
- Day2
- Battle scars from OpenStack private cloud deployments
- “I pity the fool that builds his own cloud!”–Overcoming challenges of OpenStack based telco clouds
- Tuning packet and interrupt latency for 5G applications
- How to survive hybrid cloud on OpenStack and AWS
- Automatic integration and testing system used in China Mobile’s NFV/SDN network
- How to deploy 800 nodes in 8 hours automatically
- Turbo charging OpenStack for NFV workloads
- Windmill 101: Ansible based deployment for Zuul / Nodepool
- A slimmer, thinner, lightweight OpenStack – why it is needed for the success of Edge Cloud?
- Day3
- Vanilla vs OpenStack Distributions – Update on Distinctions, Status, and Statistics
- Writing a Distributed Network Application with Dragonflow
- OpenStack-Helm Workshop: Deploy OpenStack on Kubernetes
- Life or Death – AT&T’s First Responder VNF Platform Enablement Approach
- Massively Distributed OpenStack — Thinking outside the Data Center
所感
今回も研究所のミッションである「Telecom/NFV」に集中して参加しました。(太字のセッション)NFV関連は物理ネットワークから仮想ネットワーク、そのサーバ基盤とアプリケーション管理までの動向を幅広く得ることができる面白い分野です。テレコム業界では多数のIoTデバイスや5G基盤の整備により増えるトラフィックをNFVなどを利用して捌く際に、ネットワーク的に遠いコアネットワーに集めるのではなくにユーザに近い位置のデータセンタで捌くことでトラフィックの集中と応答速度を稼ぐ「エッジコンピューティング」が注目されています。そして、それぞれのデータセンタ内のコンピューティングおよびネットワークの管理基盤としてOpenStackが注目されており、今回のTelecom/NFVセッションのお話は、殆どがこれ関連の話だったように思います。その中で、
- サービス基盤のCI/CDによるデプロイ
- 主に大手キャリアの取り組み事例
- キャリアでOpenStackを運用してのあるある話
- 運用体制や悩み等
- 仮装基盤の高速化の取り組み
- 仮装基盤の技術のおさらい (SR-IOV, DPDK, FD.io …etc)
- セキュリティの考え方と取り組み
- OpenStackセキュリティ周りのプロジェクトと、各コンポーネントの注意点の話
など一つの分野でも多岐にわたる形で沢山のセッションが設けられていました。特にテレコム系の会社のサービスインフラの自動テストやデプロイについて具体的な取り組みを楽しく聞いていました。

いずれの企業も共通して、「自分たちに合った基盤を作り、オープンなコミュニティへ還元する仕組み」を作っていく流れが見えました。BCPを探すことを理由に手を止めず、とにかくサービスを作る姿勢がとにかく眩しかったです。運用の話では容易にアップデートができない話、体制を作るは時間がかかるなどの身につまされる話が多くありました。基盤の高速化とセキュリティについては概ね技術動向と概要でした。全体的に技術にフォーカスするよりサービス展開事例などの宣伝寄りの話が多く、技術的にどうやっているのか?の説明は少なかったです。そのため技術や手法を知りたいのであれば、仕組みを想像して積極的に壇上の人にツッコミを入れることが重要となります。会場で質問を挙げられれば最高ですし、個別にスピーカーと話しますとひっそり教えてくれます。(私は後者です)今回得られた知識で納得が行く話のほとんどは突撃して聞き出していた気がします。また、今回は折角の有識者が多いイベントですので、日々、気になっていても手を動かせていない技術のハンズオンへも積極的に参加するようにしました。ハンズオンは
- ServiceChaining
- Neutron SFCによるサービスチェイン
- Tacker
- ToscaテンプレートによるVNFの展開
- Dragonflow
- Dragonflow製NeutronのTapとそれによるアプリケーション開発
- (OpenflowのRyuのコントロールを書くのとだいたい同じ)
- Zuul
- OpenStackで採用しているAnsible PlaybookベースのCI/CDツール
- OpenStack Helm
- Kubernetes上にOpenStackを作る
へ参加し、それぞれの課題を解いていきました。特に今回はKeynotesでデモがあったOpenStack-Helmのハンズオンは自分でコンテナベースのOpenStackを作ることを教えてもらいつつ実践できたので、良い経験をしました。これもスピーカーを捕まえて話すのと同じように現地ならではの楽しみ方だと思います。
まとめ
一部から人数の減少や事例のみの話が多いことから勢いが消沈しているように感じる声もありましたが、むしろ成熟しビジネス色が濃くなってきたことを感じられる内容であったり、現地で情報を掘ってみると技術的・運用的に濃い話が出てきたりでまだまだ勢いのある(楽しい)コミュニティであることを実感しました。細かいお話はまた別な機会できればと思います。
Sydneyの夜景は綺麗でした
2日目夜、OpenContrailの特別イベントでお船にのりました。

(綺麗な夜景でしたので一瞬仕事を忘れて観光気分に)
本ブログの情報につきましては、自社の検証に基づいた結果からの情報提供であり、
品質保証を目的としたものではございません。