2011年6月18日土曜日

「App Storeはほとんど死んだ」——UEI清水氏

 通信キャリア各社がスマートフォンに注力し、モバイルビジネスの主戦場はスマートフォンへとシフトしている。スマートフォン向けアプリビジネスでは、「マーケットで容易にアプリを配信できる」「世界を相手にビジネスができる」といった魅力が語られてきた一方、「マーケットでアプリが埋もれる」「有料コンテンツが売れない」など、ビジネスの難しさも長らく指摘されてきた。

 「ひとつ確実に言えるのが、App Storeはほとんど死んだということ」——。6月10日に開催された「Interop Tokyo 2011」で、ユビキタスエンターテインメント(UEI)の清水亮代表
取締役社長と、クウジットの開発部 シニアアーキテクト、三屋光史朗氏らが「スマートフォンアプリ時代のビジネス戦略」と題した講演を行った。清水氏はアプリマーケットが置かれた厳しい状況を指摘し、その中で「小さい会社ながら億単位で稼いでいる」という同社流のビジネス戦略を説明。三屋氏は、同社が注力するユーザーの位置や行動と連動したサービスへの期待を語った。

「子ども食い」が始まったiOS——「残るのはエンターテインメント」
 ユビキタスエンターテインメントは2003年8月に設立し、モバイル向けサービス/ソリューションを中心に事業を展開。2008年にiPhone向けアウトラインプロセッサ「ZeptoLiner」やノートアプリ「Zeptopad」を開発するなど、早くからスマートフォン事業に着手している。

 テクノロジーの変化の節目に起こる「ソフトがない状態」を先取りし、サービスを放つのが清水氏の考える成功の1要素。そのため、同社ではR&D活動に力を入れており、これまでも研究成果を生かしたプロダクトを展開してきた。例えばZeptopadは、iPhone登場以前から着目していたマルチタッチUIを積極的に取り入れたことで、App Storeのトップセールスにランクインしつづけるなど
好評を博したという。さらにこの春には、大学生を中心とした研究開発部門「秋葉原リサーチセンター」(ARC)も立ち上げ、さらに活動を推進する考えだ。

 先端技術を追いかけつつ、長年スマートフォンのアプリビジネスを見てきた清水氏だが、その現状に対しては厳しい考えを示す。「ひとつ確実に言えるのが、App Storeはほとんど死んだということ」(清水
氏)。「iOSはiOS 4でほとんど進化が止まっている。次に起こるのはカニバリズムというか、子ども食いのような考え方。自分たちのマーケットにある"美味しそうなアプリ"の機能をOSに取り組んでいく」(清水氏)

 6月のWWDC(Appleの開発者会議)で発表されたiOS 5には、ロック画面から素早く利用できるカメラ機能やTwitter連携機能、クラウドを使ったコンテンツ共有機能などが追加された。こうした新機能は、例えば高速起動を売りにするカメラアプリや各種のTwitterアプリ、Dropboxなどのクラウドアプリを不要にする要因になりかねない。人気の高いサービスがAppleに"回収"されてしまう状況は、サードパーティーにとって厳しいものだ。

 この事態は清水氏にとって既視感のあるものでもある。「昔はマイクロソフトがやっていたこと。CD-Rの書き込みソフトが売れていた時に、それがOSの機能として組み込まれた」(清水氏)。さらに、「生き残るのはゲームもしくはエンターテインメントだけだと思う」(清水氏)とも。「現状では(UEIは)あまりエンターテインメントをやっていないが、最後に残るのはエンターテインメントだと思っている。社名にもその思いがこもっている」(清水氏)

 さらに、iOSの対抗馬として期待されているAndroidに対しても、「Androidマーケットはいまだに壊れている」と清水氏は悲観的だ。「有料アプリの多くが100ダウンロードに満たないという調査もある。これでは学生のバイト代にしかならない」(清水氏)。

 Androidマーケットは登場した当初、ランキングをはじめとする回遊性向上の仕組みがなかったり、24時間返品ができるためにコンテンツの"タダ読み"が成立してしまったりと、いくつかの課題を抱えていた。Googleはマーケットを徐々に改善しているものの、清水氏にとっては積極的にアプリを配信したい状況にないようだ。

 同氏はむしろ、通信キャリアが用意する独自マーケットに期待を寄せている。「今年の年末から来年にかけて、"日の丸キャリア"が独自の課金手段などを整備した"正しいAndroidマーケット"を用意してくれることに期待する」

UEIの戦略は「ソリューション」と「ゲーミフィケーション」

 こうした中で、同社はアプリビジネスをどのような戦略で展開しているのか——。清水氏は「ソリューション」「ゲーミフィケーション」という2つのキーワードを掲げ、戦略を説明した。

 ブランディングや自社製品の販促などを目的に、独自アプリの開発を検討する企業は少なくない。同社は研究開発のノウハウを生かしながら、企業のニーズに応えるアプリの開発やミドルウェアの提供を行っている。

 例えば、経済産業省の実証実験と連携して提供したARアプリのノウハウを生かし、オリックス自動車のカーシェアリングアプリを開発。ARの目新しさもあって、カーシェアリングの会員登録が2倍に伸びるなどの効果が出たという。その後、ARアプリ開発ミドルウェア「ARider」をリリースし、みずほ銀行のアプリに採用された。

 「スマートフォン向けソリューションはこれからもっと活躍していく。フィーチャーフォンより自由度が高く、Androidではホームスクリーンなども変えられる。企業内で閉じたサービスなど、B2Bのソリューションもこれからどんどん出てくるのではないか」(清水氏)

 もう1つの戦略はゲーミフィケーション。端的に言えば「なんでもゲーム化する」ことだという。これは、サービスにゲーム性を持たせることで利用者のモチベーションを高め、参加度を高めていく発想だ。その1例として、清水氏は電通と企画した「BANG
100 MILLION MINES」というアプリのアイデアを紹介した。

 清水氏によれば、同アプリは"社会貢献をゲーミフィケーション"したものだという。一種の位置ゲーであり、日本中にバーチャルな地雷を1億個配置し、プレーヤーがそれを除去するのだが、この地雷除去と連動してカンボジアに存在する現実の地雷も除去されるという、マッチングギフトのような仕組みが想定されている。ソーシャルゲームが「お金を払ったことがむなしくなる。空中に消えていく」のに対し、清水氏は「自分が遊んだ分だけ地雷が除去されるのなら、こんなに達成感のあることはない」と、企画の実現に期待を込める。
 さらに、若手プログラマ育成を目指したゲーム開発コンテンスト「9leap」では、"ゲーム開発自体のゲーミフィケーション"にも着手した。アプリを公開しているコンテストサイトに、アプリの投稿回数や評価回数、プレイ回数などによってユーザーの称号が変化するといったゲーム要素を組み込み、コミュニティーの活性化を狙っている。「ゲームを作るのは面倒でモチベーションがいる。そこでゲーミフィケーションを取り入れた」(清水氏)。

 HTML5/JavaScriptベースで扱いの簡単なゲーム開発エンジン「enchant.js」の無料公開と併せて同企画は開始され、1カ月強で170本以上のアプリが公開された。「人が集まるところ、特に作り手が集まるところでは何らかのビジネスができると思っている」と、今後のビジネス発展を模索している。

クウジットが考えるローカルグラフ活用


 近年はソーシャルグラフを活用したサービスに注目が集まっているが、スマートフォン時代にはユーザーの位置や状態から導きだされる"ローカルグラフ"を使ったサービスやメディアが生まれる——。クウジットの三屋氏はそう話す。

 クウジットは、Wi-Fiを活用した位置推定ソリューション「PlaceEngine」や、「KART」「CyberCode」といったAR技術を使ったアプリなどを提供している企業。社名は「空」と「実」の組み合わせに由来し、リアルとバーチャルを融合する技術やサービスに強みを持つ。

 同社にとってスマートフォンは、目指すサービスを実現するのに最適なツールだ。スマートフォンはGPSなど各種センサーを備えていることはもちろん、アプリを常時起動できる特徴がある。端末のセンサー情報を必要なときに読み取り、解析することで、ユーザーがどこにいるか、同じ場所に誰がいるか、その場所で何をしているのかといったコンテキストに合ったコンテンツやサービスを提供できるようになる。

 同社では、行動記録・解析ソリューションとして「KRM(Koozyt Reality
Mining)」を開発。独自の行動ロガーで取得した、GPSやPlaceEngineによる位置情報、加速度センサーなどのデータを解析することで、「どこで買い物をした」「どこで休憩をした」といったユーザーの行動履歴が推測できるようになるという。こうしたデータを生かせば、あるエリアで買い物を頻繁にするユーザーにターゲティング広告を展開するといったことが可能になる。 Facebookが場所にひもづいたクーポンサービス「Facebookチェックインクーポン」を開始するなど、位置情報とひもづいたサービスの注目度は年々高まっている。一方で、モバイル端末のセンサーで収集できるコンテキスト情報は膨大にあり、これらをどんなアルゴリズムでコンテンツやサービスと結びつけるかは各社が手探りの状態と三屋氏はみる。だからこそ「ビジネスチャンスがある」と、三屋氏は今後のサービス展開に期待を込めた。

2011年の携帯端末向け広告市場、前年から倍に拡大

米調査会社ガートナーは、2011年の携帯端末向け広告市場が前年比倍に拡大し、33億ドルになる、との見通しを示した。

ガートナーによると、携帯端末向け広告の広告全体に占める割合は、2010年は0.5%だったが、2015年には4%以上に増える。

ガートナーのアナリスト、アンドリュー・フランク氏は、スマートフォンやタブレット端末市場の拡大が向こう数年の携帯端末向け広告の増加につながるとし、携帯端末の使用者が増えるにつれ、マーケティング担当者にとり広告のターゲットを絞りやすくなる、との見方を示した。

ガートナーによると、地域別の2011年の広告予算は、アジア太平洋および日本が最大で16億3000万ドル。

また、2位の北米市場の広告収入は、2011年は7億0170万ドルと予想されているが、2015年には57億9000万ドルに増える見通し。

2011年6月15日水曜日

Google、PC向けにも音声検索、画像読み込み検索やページ先読み機能も

 米Googleは14日、サンフランシスコで開催されたInside Searchの報道向けイベントで、検索の新機能を発表した。PCにおける音声検索と画像読み込みによる検索、先読みによる検索結果表示の高速化という3点だ。

● 音声検索
 音声検索は、Google ChromeブラウザーのSpeech APIを使用し、PCのマイクを通して音声認識によって検索を行う方法だ。音声入力による検索機能は2008年以来、モバイル向けに提供されていたが、PCでも有効だと考えられたことから導入された。長い検索フレーズや、書き方がわからない言葉を検索しなければならない場合などには特に有効だと考えられる。

 この機能は、Google Chrome 11以上の英語版を利用している場合に利用できる。数週間以内に利用できるようになるとしている。

● 画像読み込みによる検索
 画像読み込みによる検索は、検索キーワードを入力する代わりに、手持ちの画像をGoogleに読み込ませることにより、画像に写っている物を検索したり、類似画像を検索したり、同じ画像の別のサイズ/解像度を検索できるというものだ。

 例えば、昔撮影した旅行先の写真に写っている場所が分からない場合、この画像検索を使用するとその場所を特定できる可能性がある。また、作者が分からない絵画にも利用できるかもしれない。一般的によく知られた名所や絵画である方が、よい検索結果が得られるとしている。

 画像読み込みによる検索は、2009年にGoogleが発表したモバイル向け「Google Goggles」の技術をベースにして、PC向けに改良している。

 利用するには、検索フォームのカメラアイコンをクリックして画像をアップロードするか、ウェブ上の画像のURLを貼り付ける。

 現在、この機能のためのGoogle ChromeおよびFirefox向け拡張機能がダウンロードできる。数日以内に「ほとんどの国」で同機能が利用可能になり、それと同時に拡張機能も有効になるとしている。

 また、昨年秋に発表された「Googleインスタント」を画像検索に応用した「Google Images with Instant」のプレビューも発表された。Googleインスタントが利用できるGoogle検索の全ドメイン/言語で、数カ月以内に提供される予定だ。この機能をすぐに利用したい場合には「Google Experimental」にオプトインすることで利用できるという。

● Instant Pages
 3つ目は「Instant Pages」だ。これは、Google検索をした場合に、検索結果のトップに表示されているページをバックグラウンドで先読みするもの。検索してから望む情報を得るまでの時間が大幅に短縮される。Googleは、この機能を利用した場合と利用しなかった場合を比較した動画を公開し、検索結果のトップに表示されているページの読み込み時間が0秒になる様子を示した。

 なお、Instant Pagesではすべてのページを先読みするわけではない。ユーザーが最もクリックする可能性が高いページだと判断した場合にのみ、先読みが行われる。

 Instant Pagesは現在、Google Chromeの開発者向けバージョンで利用でき、次のベータ版に搭載される予定だ。夏の終わりごろには安定版にも組み込まれる。それまでの間、ユーザーからのフィードバックを受け、機能のチューニングを行う。

● モバイル向けに検索語句の入力支援機能なども
 このほか、モバイル向け検索機能でも2点の改良が発表された。

 1つ目は、モバイル向け「www.google.com」ホームページの画面下に、よく検索されるカテゴリーのアイコンを表示するようにしたことだ。例えばレストラン、バー、ガソリンスタンドといったアイコンが表示される。アイコンをタップすると、地図上に該当個所と自分の現在位置が青い丸で表示される。検索語句を入力する必要がないため、モバイルでは便利だ。検索結果ページでは、画面上部の地図を表示したまま、画面下部に表示されている検索結果をスクロールできる。その際、検索結果のページにあわせて、上部の地図表示が変わっていく。

 2つ目は、検索語句の入力支援機能だ。「www.google.com」のサジェスト機能を利用し、該当する語句が表示された場合には、右側のプラスボタンによって、長い検索フレーズを短い時間で「組み立て」ることができる。この機能は、すでにAndroidとiOS向けGoogle検索アプリに搭載されているが、今回新たに、モバイルブラウザーから見られる「www.google.com」でも利用できるようになったということだ。

 モバイル向けの2つの新機能は、Android 2.2以上とiOS 4.0以上から「www.google.com」を利用した場合に、40言語で利用可能となっている。

2011年6月14日火曜日

ヤフー検索がツイッターと連携

 ヤフーは6月14日、Twitterとの戦略提携に基づき。ツイートを検索できる「リアルタイム検索」を公開した。リアルタイム検索はGoogleが既に公開しているが、Yahoo!JAPANのリアルタイム検索では、検索結果ページからリツイート(RT)やリプライができるなどの機能を盛り込んでいる。
 対象は24時間以内のツイート。Yahoo!JAPANの検索窓から「リアルタイム」を選べば、Web検索などと同様にツイートをキーワード検索できる。投稿されてから数秒で検索対象になるという。
 検索結果は、投稿時間順のほか、「独自の指標と基準」に基づいた適合度順の表示も可能だ。「時間順に見ていた時に見逃していた重要なツイートも、検索結果の上位に表示されるので見逃さない」としている。
 検索結果ページからRTやリプライ、お気に入り登録することも可能(要Twitterへのログイン)。特定のアカウントによるツイートを指定して調べることができ、アカウントを「ID:itmedia_news」と指定して検索キーワードを入力すればいい。
 検索結果の右側には「注目のキーワード」20件を表示。複数の指標に基づいて大量のツイートから抽出したキーワードや、Web検索で検索されているキーワードなどから10分ごとに更新しているという。
 ヤフーは今後、Twitter以外のソーシャルメディアとも連携も予定しているという。

3Dモーションによる人体解剖サイト「TEAMLAB BODY」が無料公開

 チームラボは14日、3D高精度モーショングラフィックにより「生きた人間の動き」を全方位再現した3D人体解剖サイト「TEAMLAB BODY(ベータ版)」を一般無料公開した。日英2言語に対応す
る。

 「TEAMLAB BODY(ベータ版)」は、高精度な筋肉・骨のビジュアルを3Dによりさまざまな角度から閲覧できるサイト。大阪大学運動器バイオマテリアル研究室の整形外科医師・菅本一臣教授の監修のもと、骨格・筋肉を中心とした人体解剖に関する情報を掲載したサイトとなっている。

 同研究チームは、整形外科疾患の治療過程で、生きた人間の関節の三次元的な動きを解析する手法を世界で初めて開発。その結果、人間が自分の意志で動かした関節の動きは、従来の医学教科書に記載されている献体を用いた動きとは異なることをあきらかにした。さらにこれに着目した同研究チームは、20〜30名の協力者を募り、過去10年以上にわたって、生きている人間ですべての関節の形態や動きをCTやMRIで撮影し、解析を行ってきたという。

 「TEAMLAB BODY(ベータ版)」は、その抽出データを用いて、人体の全身の筋肉・神経・血管・骨・関節をビジュアル化し、他の類似サービスでは実現できなかった、精度の高い骨格の形態や動き、さらには筋肉の収縮なども3Dモーショングラフィックスで表現した。今回、立位静止状態の3Dビジュアルを全面公開するほか、骨のモーション・筋肉のモーション(一部)を公開した。今後は、アップデートを重ねながら、医療現場や医学生、商用・エンターテインメント分野などへの応用やデータのライセンス提供を視野に開発を続けるとのこと。サイトの閲覧にはFlash Player、
Unity Web Playerの導入が必要となる。

Google、ディスプレイ広告管理ツールのAdmeldを買収

 米Googleは6月13日(現地時間)、ディスプレイ広告管理ツールの米Admeldを買収したと発表した。詳細は公表されていないが、米Wall Street Journalがこの件に近い筋の情報として伝えるところによると、買収総額は約4億ドルという。

 Admeldは2007年創業の、ニューヨークに拠点を置く非公開企業。Webパブリッシャーと広告主向けに、オンラインの広告ネットワークおよび広告取引市場(Ad Exchange)の利用を管理するツールを提供している。複数の広告ネットワークやDemand Side Platform(DSP)をサポートしており、Fox News、Thompson Reuters、Answers.com、Pandoraなどが顧客になっている。

 GoogleはAdmeldの広告管理サービスや技術をDoubleClickやAdMobに取り込むことで、より柔軟に使える広告管理ツールを顧客に提供できるようになるとしている。

 なお、Admeldは今後もGoogle以外の広告ネットワーク、Ad Exchange、DSP、広告サーバのサポートを継続する。

 Admeldのマイケル・バレットCEOは公式ブログで、「規制当局がこの買収取引を調査する間、両社は市場で独立した企業として存続する」と述べている。Googleは米調査会社IDCの報告によると、米ディスプレイ広告市場で現在首位に立っている。

 Googleは、AdMobやDoubleClickの買収の際にも独禁法当局の調査を受けており、DoubleClickの買収完了には約1年を要した。

Twitter好きの日本企業が抱えるネットワーク課題——パロアルト調査

 日本企業が利用するアプリケーションの41%が従来のファイアウォールでは制御困難——このたびパロアルトネットワークスが発表した独自調査で、日本企業のアプリケーション利用状況とそれに付随する脅威の特徴が見えてきた。

 パロアルトネットワークスでは、半年ごとに顧客環境のトラフィックを調査しており、全世界および国別に企業ネットワーク帯域でのアプリケーション利用状況をまとめている。2010年11月から2011年4月の期間で行った調査では、日本企業特有のものとして以下3点の課題が挙げられた。なお、同調査の対象企業は世界1253社、そのうち日本企業は87社である。

(1)検知したアプリケーションのうち41%はSSLなどポート443以外の通信を利用したものだった。全トラフィックの27%を占めるそれらのアプリケーションは、ポートレベルでアプリケーションを識別する従来のファイアウォールでは制御が困難である

 日本企業が利用するアプリケーションはサーバ/クライアントタイプのものが多く、ポートでアプリケーションを識別する従来のファイアウォールでは、ユーザーと利用権限をひも付けた制御(X部のAさんにはFacebookの全機能を許可するが、Y部のBさんには閲覧のみで書きこみ禁止など)ができない。なお同社が調査を開始した2年前には、それらのアプリケーション利用はわずか10%以下だった。

(2)ソーシャルネットワークサービス(SNS)は全世界共通で利用率が増加しているが、日本はTwitterが45%を占めるなど、利用アプリケーションに世界の傾向と若干かい離がある

 アプリケーションを狙う脅威レベルに違いはないが、日本で利用率の高いTwitterは短縮URLを悪用したスパムなども横行していることから、アプリケーション経由のマルウェア感染などに注意が必要という。

(3)P2Pとブラウザベースのファイル共有をそれぞれ82%、63%の割合で使用している

 世界ではWebブラウザベースのファイル共有が多く利用されているのに対し、日本はMicrosoft Office Liveなどのクライアント/サーバタイプ、宅ふぁいる便などのブラウザタイプのファイル共有アプリケーション利用率が高い。

2011年6月13日月曜日

日立とオラクル、仮想化環境のDBクラスタリングを共同検証

 日立製作所と日本オラクルは2011年6月13日、日立のサーバー仮想化機構「Virtage」上で、オラクルのクラスタリング技術「Oracle Real Application Clusters(Oracle RAC)」の稼働検証を
行ったと発表した。今回の検証により、VirtageはOracle RACの稼働認定を受けた。この認定を基に、両社は「日立-オラクルVirtageソリューションセンター」(写真)を開設し、顧客に対してデータベース(DB)統合基盤の構築などについてアドバイスを実施していく。

 Virtageは、日立製ブレードサーバー「BladeSymphony」に搭載されている仮想化機構。CPUやメモリーといったハードウエアを論理分割し、複数の論理区画(パーティション)を作り出すことが可能である。今回、Virtageのパーティションで動かしたOracle
Databaseについて、Oracle RACの稼働が認定された。これまでOracle RACの稼働が認定された仮想化環境は、オラクル製の仮想化ソフト「Oracle VM」のみだった。

 Oracle RACは複数のOracle Databaseのノードを連携させ、性能をスケールアウトさせると同時に、DB全体の可用性を高める技術。データの一貫性を保つために、キャッシュフュージョンと呼ぶ機能を使い、DBノード間でデータをやり取りする。特に仮想化環境ではそのオーバーヘッドが気になるが、「Virtageの機能を使いパーティションにI/Oカードを占有させることで、キャッシュフュージョンのパフォーマンスが確保できる」(日立製作所 第二サーバ本部 第三部 芳野泰成 部長)。

 両社は今後、ソリューションセンターを通じ、DB統合のサイジングや方式などについて顧客にアドバイスを行っていく。日本オラクル テクノロジー製品事業統括本部 アライアンスビジネス推
進部の椛田后一 部長は「仮想化技術の普及によりIAサーバーの統合が進んできたが、DB統合には不安を感じる顧客が少なくない。Virtageで堅牢な仮想化環境を作り、その上でOracle RACを動かすことで、性能や信頼性が高い
DB統合基盤が作れる」と話す。

 またオラクルは、次期「Oracle Database」のOracle RACに関わる部分について、開発・テスト環境としてVirtageによる仮想化環境を利用する。

Google、Webページのコンテンツ制作者を示す記法をサポートへ

GoogleはWebページのコンテンツと制作者を結びつけるためのマークアップを新たにサポートすると発表した。

新しい記述法はリンクに「rel」属性を使用することで、コンテンツページと著者ページとを関連付けるというもの。コンテンツ内に著者ページへのリンクを用意し、「rel="author"」という属性を追加すれば、Googleの検索エンジンがリンク先の著者をコンテンツの作成者として認識する。この場合の著者ページはコンテンツページと同じサイト内に存在する必要があるとのこと。著者ページから自分のWebサイトやSNSのページなど、外部サイトにリンクする場合はリンクに「rel="me"」という属性を追加すればいい。これにより、Googleの検索エンジンがリンク先のページを同一著者のものであることを認識できる。

Googleがさまざまなサイトにまたがった「著者検索」機能を提供する日も近そうだ。

中国における IPv4/IPv6 事情

「World IPv6 Day」は、IPv4アドレスの在庫が枯渇した状況の中、IPv6 アドレスの円滑な導入を促すために開催され、Google や Yahoo!、Facebook、YouTube、Akamai などの大手 Web サイトから一般企業の Web サイトまで、世界の436の企業・団体などが参加しました。この間、参加企業は Web サイトに IPv4/IPv6のデュアルスタックに対応する設定(IPv4でもIPv6でもアクセスできるようにすること)を施し、IPv6に対応をしていく中での対応策や問題点の洗い出しなどを行いました。

中国では IPv6に対する取り組みは政府レベルで2000年代初頭から積極的に推し進められており、以前から様々な実験が中国全土で実施されています。中国が積極的に IPv6への技術投資を行ってきた背景には、いくつかの思惑と中国特有の事情があるとされています。Cisco や Juniper といった IPv4時代に発展かつ市場を席巻してきた欧米のネットワーク機器メーカーが、中国でもシェアを伸ばしていることに中国政府が危機感を抱き、中国の機器メーカーが IPv6という新しい技術への転換を機に主導権を握れないかと模索したのも事情の一つとされています。

この思惑の他にも現実問題として、中国は人口に対して IPv4アドレスの割当数が極めて少ないことが挙げられます。この問題は、中国自体が IPv6という大量の IP アドレス空間を利用できる技術の直接的な市場になりうることも注目されました。

実際、中国では IPv4アドレスが2億7,000万個しか割り当てられておらず(2010年12月現在、CNNIC による)、人口1人あたり1個以上の IP アドレスが割り当てられている日本やアメリカと比べ、僅か0.2個という状況です。世界全体でも IPv4アドレスは既に枯渇の状態で、大幅な追加割り当ては期待できません。このことは、今後様々なデバイスがインターネットに繋がっていくユビキタス時代を迎えるにあたって、市場拡大への大きな支障となることが想像される状況です。

その一方で、今回の「World IPv6 Day」には主要な中国企業は参加を表明しませんでした。CN ドメインを持つ Web サイトの中で参加表明した唯一の企業は、総合通信機器メーカーである中興通迅(ZTE Corporation)で、最終的な参加表明者リストにも中国系企業はこの一社のみです。

百度(Baidu)やアリババ、タオバオなどの大手サイトも一切反応を見せずじまいだったのは意外ともいえ、欧米企業が中心となったプロジェクトを敬遠したか、Web サイトの IPv6対応を行う技術的な準備が間に合わなかったなど、複数の可能性があるものとみて取れます。ただし、実際には政府系機関や教育機関などのサイトでは IPv6対応は既に進めており、必ずしも中国での取り組みが全体的に遅いとは言えません。

さらに、中国では日本やアメリカなどと違って個人が Web サイトを開設することはほぼ無いため、仮に今後 IPv6化が進んでいったとしても大きな混乱を招くことはないと考えられ、こうしたトライアルへの参加の必要性は低かったのではないか、との声も聞かれます。

現在、中国では IPv4アドレスは ISP 経由でしか割り当てられていないため、当局は ISP に対して提出する申込者情報によって個人を特定できますが、IPv6の場合には割り当て方法がまだ確立しておらず、今後どのように管理体制が敷かれるかは引き続き関心を払う必要があります。

最後に、主要な中国の大学の対応状況を調べてみましょう。これらを見てみると、各大学では IPv6サイトをそれぞれ用意し、実験的な取り組みを進めている様子がわかります。また、この動きは、IPv6の導入を推進したいとしている政府の動きに同調したものと見られます。

今回の「World IPv6 Day」に参加をした日本や欧米の ISP や主要なインターネットサービス企業は、Web サイトの IPv6対応に関する多くのノウハウを新たに吸収したであろうことに比べ、中国国内の主要な企業やインターネットサービスの Web サイトでは、IPv4/IPv6のデュアルスタック対応、もしくは IPv6専用サイトの開設といった大きな動きは今のところ見られませんでした。こうした中国企業の IPv6に対するノウハウ蓄積遅延は、中国全体での IPv6化へのスピードを減速してしまう可能性もあります。

先に触れたとおり、中国は人口に対して極めて IPv4アドレスの割当数が少なく、より広大なアドレス空間を持つ IPv6ネットワークが他の国よりも早く進まなければ、スマートグリッド・センサーネットワーク・RFID など、インターネットに大量の小型デバイスやメーターが接続されるという次世代の展開にも大きな制約が生まれてしまいます。今後の中国の IPv6を取り巻く動向が注目されます。

可読性の高いコードにはルールが必要

 チームで開発を行うと、必ず「ルール」が必要になる。よくある規約としては、開発手法を定めた「開発規約」や、どのようなテストをどれだけ行うかを定めた「テスト規約」などがある。

 コードを書く際、どのプログラミング言語にも最低限のルールは存在する。しかし、すべてのエンジニアがそれを熟知しているとは限らない。ルールを知らないエンジニアが書いたコードは、本人にしか理解できないものになる。そのようなコードを1つ許せば、いずれシステム全体が混沌状態に陥り、システムの品質を落としてしまう。

 では、厳密にコードを書くためのルールを決めれば、問題は解決するか?

 必ずしもそうとは限らない。ルールは、時としてコードを書く上で足かせとなる。ガチガチに規約で縛ると、ルールを守るために冗長なコードを書いたり、必要以上の実装を求められたりと、生産性を落とすことになりかねない。実装の自由度を十分に残しつつ、一定のルールを決定することは非常に難しい。

 すべての規約に星1つ〜星5つの評価を付け、星の数でルールの重要度を示している。ある程度のJavaの知識を持つエンジニアにとって、星5つのルールは「無意識のうちに守っている」というレベルだ。しかし、逆にJavaの知識に自信のないエンジニアにとって、星5つのルールはJavaの書き方の基礎を固めるのにちょうどいいだろう。まずは星5つのルールを重点的に読み、それから星数が少ないものへと進めていくと、より良いJavaソースの書き方を身に付けることができる。

GPT保護パーティションを削除する

 最近では大容量のディスクも安価になり、2Tbytesを超えるような大容量のディスクを利用することも珍しくない。別記事「2Tbytes超ディスクをデータ用ストレージとして利用する」では、2Tbytes超の大容量ディスクを利用する方法と、そこで使われる新しいパーティション管理方式である「GPT(GUID Partition Table)」について解説している。従来使われていた「MBR(MBR(マスター・ブート・レコード)」では2Tbytes超のディスクを管理できないため、現在のWindows OSではGPT方式も利用できるようになっている。ディスクの容量に応じてGPT形式でディスクをフォーマットすれば、大容量のディスクでも問題なく利用できる。ただしGPTは2Tbytes超のディスクだけに利用できる技術ではなく、もっとサイズの小さいディスクで利用してもよい。Windows OS以外のシステム、例えばLinux(を使ったシステム)やMac OS X、NAS機器、ディスクを内蔵した家電機器などでは将来性などを考えて、ディスクのサイズに関わらず、現在ではGPT形式を利用していることがある。

 だが32bit版のWindows XPではGPT方式のディスクはサポートされていない(64bit版のWindows XPではサポートされている)。そのためGPT形式のディスクを接続してもその内容(パーティション構成)は表示されないし、パーティションの作成や削除もできない。つまり、そのままだとWindows XPではまったく利用できないディスクとなる。

Windows XPでは、GPT保護パーティション(保護MBR)のみが見えるが、このパーティションは削除したり、サイズを変更したりできない。ディスクを不用意に書き換えないようにするために、このようなMBRが定義されている。
 このようなディスクをWindows XPで利用したければ(通常のMBR方式で管理させたければ)、ディスクの管理情報を削除して未使用状態に戻せばよい(もちろんパーティションに保存されていたデータにはアクセスできなくなる)。本TIPSでは、その手順を解説する。

 ディスクの管理情報をすべて削除して、完全に初期化するには、diskpartコマンドを利用する。
 まずコマンド・プロンプトを開き、「diskpart」コマンドを起動する。そして「list disk」でディスクの一覧を確認後、「sel disk <数字>」でディスクを選択して(<数字>には一覧で確認したディスクの番号を指定する。間違えないように注意)、「clean」コマンドを実行する。cleanコマンドは確認なしですぐに実行されるので注意していただきたい。
 以上の操作でディスクの管理領域は削除され、Windows OSからは未初期化状態のディスクとして見えるようになる。あとは初期化して、パーティションを確保すればよい。

2011年6月10日金曜日

EPUBとは

 EPUBとは、電子書籍コンテンツのファイルフォーマット規格である。電子書籍の仕様の標準化を目指すIDPF(国際電子出版フォーラム)が仕様を策定、公開している。名称は「Electronic PUBlication」(電子出版)に由来する。

 特徴の一つは、仕様がオープンであること。電子書籍のフォーマットには、EPUBのほかにXMDFや.book、PDFなどがある。これらはもともと、シャープ、ボイジャー、米アドビ システムズが開発した。こうした仕様は開発したベンダーが中心になって決めることが多い。一方のEPUBは、電子書籍にかかわる多くの企業からの意見を基に仕様が決められている。なお現在では、XMDFは国際電気標準会議(IEC)で、PDFは国際標準化機構(ISO)でそれぞれ標準化されている。

 EPUBは、Webサイトのコンテンツの記述に使われるHTMLをベースにしている。XHTML(XMLに準拠したHTML)形式で記述されたファイルと、ページの統一デザインを決めるCSSファイル、これに画像、音声、動画、フォントといったファイルなどをZIP形式でひとまとめにする。このため、単なる紙の本を電子化するだけでなく、音声や動画を使ったマルチメディアコンテンツとしての配信も可能になっている。

 XMDFや.bookもタグを使うHTMLやXMLをベースにしたフォーマットである。EPUBを含めたこれらのフォーマットでは、ユーザーがビューワーソフト上で好みに合わせて文字フォントのサイズや行間などを指定できるというメリットがある。このとき、設定に応じてテキストを流し直す処理を施しており、こうした機能を「リフロー」と呼ぶ。こうした長所の半面、EPUBは複雑なレイアウトを作りづらい。ユーザーが指定した設定によってはレイアウトが大きく崩れて読みにくくなることもある。

 これに対して、パソコンの文書配布の形式として広まったPDFは通常、フォントサイズや行間を変更できない。文字を大きくしたり小さくしたりするときは、レイアウトを維持したまま、ページ全体を拡大/縮小するようになっている。その一方で、複雑なレイアウトのページを作りやすい。

 現在主に使われているEPUBのバージョンは2.0.1である。このバージョンでは、縦組みに対応しないなど、日本語で利用しにくい面がある。しかし、次バージョンの3.0では縦組みやルビ、縦中横(縦組みの文に「21」といった複数けたの数値や、長さを表す「cm」を横書きで入れること)など、日本語独自の表記ルールをサポートしている。

MBRに代わる、GPT形式のパーティション管理

 MBR形式に代わるパーティション管理方式として、新しく「GPT(GUID Partition Table)」という管理方式が開発され、利用されることになった。GPTでは、パーティションの開始位置やサイズを指定するために64bit幅のデータ領域を用意している。これならば48bit LBAによるディスクのブロック・アドレスをそのまま格納できる。またMBRにあったさまざまな制限などもなくし、拡張性/柔軟性に富み、信頼性の高いパーティション管理システムとなっている。GPT方式のメリットとしては、次のようなものがある。

論理ブロック・アドレスやパーティション・サイズを64bit幅のデータとして管理する
ディスク1台あたり、最大で128パーティションまで管理できる。MBRのような、プライマリ・パーティション(最大4つまで)や拡張パーティション、論理パーティションという区別はない。すべて対等なパーティションになる
冗長性/信頼性確保のため、ディスクの先頭と末尾に同じGPTデータが置かれ、プライマリが障害などで利用できないときはバックアップが利用される
パーティション・データの正当性を保証するため、CRC32によるチェック・データが付けられている
パーティションの内容を識別するためにGUIDが利用されている
パーティションごとに、最大で36文字までの識別用文字列を割り当てることができる
LBA 0(ディスクの先頭のブロックのこと)には互換性のためのMBRデータが置かれている
■古いソフトウェアによる誤操作を防ぐ「互換MBRデータ」の仕組み
 上のメリットのうち、最後の1つ(互換性のためのMBRデータ)について補足しておく。GPTは新しいパーティション管理方式であるため、従来のMBRとはまったく互換性がない。いったんディスクをGPT形式でフォーマットしてしまえば、そのディスクはもうMBR方式ではアクセスしてはいけない。すでにGPT形式で確保されたパーティションのデータなどが壊れてしまうからだ。

 とはいえ、MBRを操作する(古い)ソフトウェアはGPTを知らないだろうから、アクセスを完全に防ぐことはできないだろう。そこで考え出されたのが、元々のMBRの場所であるLBA 0にダミーの(レガシー)MBRデータを置く方法である。

 MBRで取り扱える最大ディスク・サイズは2Tbytesなので、すでに2Tbytes(もしくはディスクのサイズ)いっぱいに特別なパーティションが確保されている、というMBRデータを作成してLBA 0に書き込んでおく。するとMBRを操作するソフトウェアは、MBRやパーティションの内容を変更することはないはずである。このような目的で使われるMBRを「保護MBR」とか「GPT保護パーティション」などという。


MBRとGPT
2Tbytesの限界を超えるため、パーティションのデータはGPTで管理する。ただしGPT形式のディスクでは、互換性のために(勝手に操作されないように)MBRのデータも保持している。UEFIの仕様書より引用。MBRから見ると、ディスクのサイズは2Tbytesで、その全部がすでに使用(割り当て)済み状態となっている。本当のパーティション・データはGPT側で管理する。ディスクのサイズが2Tbytes以上あるときは、GPT保護パーティションのサイズは2Tbytesいっぱいとなるが、2Tbytesよりも小さいディスクの場合はディスクの末尾までとなる。
 これ以外に、例えばディスクの前半1TbytesはMBRで管理し、残りはGPTで管理するといった方法も考えられるが(これならば、従来のMBRを利用するソフトウェアも1つのシステム上に同居できる)、間違えてお互いのパーティション・データを破壊したりする可能性があるので、あまり使わない方がよいだろう。少なくともWindows OSはこのような使い方はせず、GPT保護パーティションのみを利用している。

GPT形式のディスクを追加ストレージとして利用するには

 さてこのMBRに代わるGPT(GPT形式のディスク)であるが、いったいどのOSで利用できるのであろうか。以前の137Gbytes超ディスクのときのように、システム(PCやBIOS、インターフェイス・カード)やOSが対応するまで数年待たねばならないのであろうか? もしそうなら、残念である。大容量ディスクはすでに一般的なのに。

 やや悲観的なことを述べたが、実はGPT形式のディスクは、追加ストレージ(追加のボリューム)として利用するだけなら、Windows XP x64 EditionやWindows Server 2003 SP1以降、すなわち以下のWindows OSですでに利用可能である。

Windows XP x64 Edition
Windows Server 2003 SP1以降
Windows Vista
Windows Server 2008
Windows 7
Windows Server 2008 R2
 一方、Windows XP(32bit版)やWindows 2000およびそれ以前のWindows OSでは、GPTは利用できない。これらのOSでは、2Tbytes以下のディスクなら保護パーティションのみが見える。つまり利用できないボリュームとして見えるということである。2Tbytes以上のディスクの場合は、ベンダ提供のドライバなどをインストールしないと、ディスクそのものがアクセスできないことがある。

 GPT形式は「UEFI(Unified Extensible Firmware Interface)」規格の一部として作成されたが、UEFI規格そのものはもう10年近く前に決められたものである。そのため、当時からWindows OSではGPT形式のディスクを追加ストレージとして利用する機能はサポートされていた。UEFIはIA-64システムなどで利用することを主眼に開発されたものであったが、現在ではサーバ・システムやビジネス向けPCなどを中心に、サポートが進んでいる。

クラウド&スマホ時代、運用管理の在り方を再考する

 近年、多くの企業にクラウドサービスが急速に浸透しつつある。一方で、最近はiPhoneやAndroidといったスマートフォンの個人利用、企業導入も着実に進んでいる。

 クラウドサービスとスマートフォン、一見、直接関係のなさそうな、この2つのテクノロジ・トレンドだが、この組み合わせには巨額の資金が投入され、多様なサービス、製品が開発されている。読者の皆さんの中でも、すでにどちらか、あるいは2つを無意識のうちに組み合わせて利用している人は多いのではないだろうか?

 例えば、個人の利用シーンでは、EvernoteやDropboxといったクラウドサービスをスマートフォンで利用するのは、もはや珍しいことではなくなっている。企業における活用シーンを考えても、情報共有ツールなどのクラウドサービスをスマートフォンで使うことによる業務効率化や、東日本大震災以降、特に注目を集めている事業継続性の確保という面でも、これらの組み合わせには大いに期待できる。

 では、この便利な2つのテクノロジ・トレンドを業務基盤として活用する上では、何がポイントとなるのだろうか?——

 クラウドサービスとは、IT資産を自社で「所有する形態」から、外部のクラウドサービス業者の所有するIT資産にネットワークで接続することで、「利用する」形態に置き換えるサービスである。自社で資産を持たず、調達の時間を意識せず、すぐに利用できる点が特徴だ。一方、スマートフォンは、「持ち歩ける」という機動性と、従来の携帯電話端末よりも格段に使いやすい専用アプリケーションを開発・利用できる点が特徴と言える。この点が「企業内の業務端末」として期待されるゆえんだろう。

 このクラウドサービスとスマートフォンにより、「自社で管理しているサーバと、ノートPC・モバイルデバイスを使って行ってきた業務処理」を、より効率的かつ安価に利用できるようになる。では、これは具体的にはどういうことなのか?

 クラウドサービスとスマートフォン、ともに「思い立った時点で導入し、すぐに効果的に活用できる」というものではない。 導入を検討する際は、従来と同様に、まずは既存の社内システムを棚卸しすることが求められる。

 棚卸しによって、社内システムの利用状況や投資コストを洗い出してみると、実は、今まで有効に利用されていると思っていた社内システムが、導入当初の目論み通りに利用されておらず、「運用コストを掛けている割には、導入効果が上がっていない」ケースが見えてくることが多いのである。

 例えば、グループウェアや営業日報のシステムが「社内のPCからしか利用できない」といったケースが見えてくるはずである。また、棚卸しによってポイントを把握すれば、「これらを出先、あるいは移動時間中に操作できるようにしたい」といったニーズも掘り起こせることだろう。こうした点がクラウドサービスやスマートフォンの導入のポイントなのだ。

 まずは「今、自社にはどんなシステムがあり、どのように利用されているのか」を把握する——こうした"システム活用の基礎"はどんな時代になっても変わらない。むろん、これには「手軽に導入できる」がゆえの無駄な投資を抑制する、という意義もある。

 だが、クラウドサービスとスマートフォンを活用する際の課題は、これだけではない。 「クラウドサービス・スマートフォンのセキュリティ対策」「クラウドサービス、スマートフォンと社内システムの連携」「個人所有のスマートフォンの業務上の利用ポリシー」などなど、考えなければならないテーマはさまざまである。

2011年6月9日木曜日

東京湾北部地震対応計画、3つのポイント

 今回、東京を襲ったのは最大で震度5強(江戸川区、足立区、板橋区、荒川区、杉並区、中野区、江東区、千代田区)。向こう30年内に70%の確率で発生すると言われる東京湾北部地震では、東京を震度6弱の地震が襲うと予想されている(南関東地震では震度6強と想定されている)。

 この際には当然、負傷者も増え、多くの道路が閉鎖され、混乱の大きさも今回の比ではないと思われる。内閣府が2008年に公表したシミュレーションによれば、「東京湾北部地震が関東を直撃した場合、被災当日は都内からさいたま市への移動だけでも通常の倍近く、すなわち11時間以上かかるだろう」と予想されている。このことからも混乱の大きさが容易に想像できる。

 こうした事実を踏まえれば、企業は「今回の東日本大震災から見えてきた課題」を真摯に受け止め、来たるべき震災に備えていかなければならないことは、火を見るよりも明らかである。

 ところで、こうした「被災直後における企業の対応の在り方」を示した行動計画を指して、「災害対応計画」や「防災対応計画」「初動対応計画」などと呼ぶ。画一的な呼び方はないが、いずれにしてもその最大の目的は人命保護にあり、避難行動や安否確認、先の帰宅困難者対応を含めた二次被害防止などといった観点についてカバーすることになる。

 企業では「災害に遭遇した際にも、事業を継続できるようにするために策定する行動計画」をBCPと呼ぶが、この人命保護を目的として定めた初動対応の計画は、このBCPの一部となるものだ。そもそも、社員の安全が確保できての"事業継続"であることから、真に役立つBCPを用意する上でも、初動対応計画は非常に重要な位置付けと言える。

■避難
 「最初の待避行動の在り方」の解は一つではないが、基本的に入居している建物の耐震性が高いようであれば、建物内にとどまっておくことがより安全だろう。とはいえ、入居している建物の耐震性、建物を取り囲むビルの耐震性、避難場所までの距離などの情報がなければ、社員も判断のしようがない。会社として責任を持って、こうした情報を確認の上、対応方針を明確にし、社員に伝えておくことが重要となる。

■安否確認
 被災当日、回線に大量のトラフィックが発生し、電話連絡が困難になった。携帯メールに頼った安否確認システムは、メールサーバに高負荷が掛かったためか、メールの送受信が著しく遅延したことが確認されている。

 また一方で、社員の安否確認に追われて来客者対応がおろそかになり、来客者がいつ帰ったのか、無事であったのか、しばらく分からなかったというケースも報告されている。さらに社員本人の無事が確認された場合でも、その家族の安否が分からないために、業務が全く手につかないという事態も多々あった。

 社員のみならず、社員の家族の安否情報が取れないと、それはそのまま事業継続のボトルネックになりかねない。企業として業務再開に向けた動きも取りづらい。 また、来客者に対していい加減な対応は、人道的に許容されるべきものではなく、最悪の場合、企業の信用を問われかねない。

 さらに、意外に知られていないことだが、社員の家族の安否確認の成否は、そのまま帰宅困難者の問題に直結する。内閣府の調査によれば、社員が「自分の家族の安否を確認できた場合」と「できない場合」で比較した際、後者の場合は「最大25%ほど帰宅困難者の数が減少する」と予測されている。

 安否確認の在り方としては、今回の震災ではデータ通信を問題なく利用できたことから、できればSkypeや音声チャットなど、データ通信を利用した連絡手段を取り入れることを視野に入れておきたい。ただし、今回の震災で使えたからと言って、次の震災の時に必ず使えるとは限らないので、常に複数の手段を持つよう心掛けておくことが重要だ。なおかつ、社員の安否だけではなく社員の家族、そして来客者の安否確認をどうするのかについても、対応を決めておくことが重要だ。

■帰宅困難者対応
 あまり知られていないが、都内で震度6以上の大地震が発生した際、警視庁は環状7号線の内側の区域を全面車両通行禁止とする交通規制を実施する。また、緊急車両を最優先で通行させるために、緊急交通路に指定されている幹線道路に関しても全線車両通行止めとなる。

 これにより、東京湾北部地震では、「200万人を越える人が満員電車状態の道路を、最低でも3時間は歩かなくてはいけない」という想定結果が出ている。負傷者の病院への移動の大きな妨げになる上、たとえ健常者でも、帰宅途中に大きな余震に巻き込まれ、二次災害を被る危険性も高くなる。

 ちなみに余震についてだが、気象庁の発表によれば、2004年に新潟県で起きた中越地震では、本震と同日内に発生した震度5以上の余震は10回を数える。今回の東日本大震災も例外ではなく、3月11日当日から12日の未明にかけて、震度5以上の余震が8回も発生している。

 こうした"一斉帰宅のパニック"を回避するために、企業も普段から「災害時の社員の帰宅方針」を定めておく必要があるだろう。まず、「どうしても真っ先に帰宅しなくてはいけない事情を抱える社員」と、そうでない社員とを分けて、段階的に時差を設けながら帰宅させることが望ましい。

 参考までに、企業で働く東京都民の3分の1の人たちの帰宅を、震災翌日に分散させるだけで、先ほど述べた「"満員電車状態で移動"する人数は、半分にまで減る」とされている。「2分の1の人を翌日に帰宅させた場合には、当日の混雑を4分の1まで減らせる」とのシミュレーション結果も出ている。

GNUプロジェクト創設者のリチャード・ストールマン氏、「電子書籍は危険」と警告

 GNUプロジェクトの創設やFree Software Foundation代表として有名な米フリーソフトウェア運動家のリチャード・ストールマン氏は6月7日(現地時間)、電子書籍の危険性について警告する文書を自身のサイトで公開した。

 「The Danger of E-books」と名づけられたこのPDF文書には、電子書籍には紙書籍と異なり「表現の自由」を阻害する危険性があると、Amazon.comによる電子書籍配信の仕組みを例に挙げて説明している。

 ストールマン氏によると、電子書籍には「購入時に自分が何者か明かす必要がある」「法律上所有できない」「ライセンス締結を強要される」などの問題点があり、表現の自由を守るために戦い、新しい仕組みにすべきだとしている。

Power over Ethernet(PoE)給電

蛍光灯型やスポット型のLED照明器をPoE対応スイッチで点灯できる。デモンストレーションではスマートフォンにインストールしたリモコンアプリを操作していた

 ベンチャーパビリオンにブースを構えるサイバートランスジャパンは、Power over Ethernet(PoE)給電とバッテリ駆動が可能なスイッチを利用してのLED照明のコントロール技術を披露した。

 この技術では、通常時でもPoEによってLED照明を点灯することで消費電力を下げることができ、照度を変えることで、さらなる節電が可能だという。アダプターを使用すれば、1つのポートで複数のLED照明器をコントロールすることができ、センサーを組み合わせることで、自動的に明るくしたり、暗くしたりもできる。

 

データセンターの節電

 震災とその直後に実施された計画停電は、企業のIT環境にも大きな影響を及ぼした。特にデータセンターではサービスの中断など深刻な問題の発生が今後も予想されるだけに、西日本地域へのシステムの移転といった対応に追われているところが少なくない。

 日本データセンター協会による講演では、企画グループの泓宏優氏が、すぐにでも始められるデータセンターの節電術を紹介した。同協会では節電方法をまとめたマニュアルをWebで一般にも公開している。

 重要な情報システムが幾つも稼働するデータセンターは、節電のためとは言え、実際には簡単に止めることができない。「移転するにしても西日本地域にはもう余裕がない。電力使用の状況を可視化して、できるところから節電していくのが現実的な方法」(泓氏)という。

 日本データセンター協会は、節電対策を「物理的な設備」「ソフトウェアの機能」「ファシリティ」の3つの点で実施することを推奨している。

 まず「物理的な設備」では、可能であればサーバの電源ケーブルをコンセントや電源タップから抜いたり、ブレーカーを遮断したりと、根本的に通電しないようにする。また、配線ケーブルはなるべく取りまとめて通気性を高め、ファンやフィルタを清掃して冷却効率を高める。ベンダーへの確認が必要だが、予備電源系も可能なものは取り外すことが推奨されるという。

 また、あまり使用していないサーバなどのオプションのボートを取り外す、HDDからSSDに換装して稼働部分を減らすといった方法もある。ネットワーク帯域の使用を制限することも節電につながる。

 「ソフトウェアの機能」では、発売時期が比較的新しいサーバやストレージ製品に搭載されている省電力設定の機能を活用する。多くの製品では推奨の省電力設定が用意されており、これを有効にするだけでも大きな節電効果が見込まれる。また、「パワーキャッピング」という機能がある場合、CPU使用率の上限を低めに設定することで、システムを稼働したままでも一定の節電効果が得られる。

 「ファシリティ」では、通常では低めに設定されているマシンルームの室温を最高で40度程度に引き上げる方法がある。機器の動作に影響が出ないようベンダーとの調整が必要だが、室温を高めることで冷却装置の使用電力を抑制できる。このほかにも、室外機の周辺に水を噴霧して気温を下げ、空調機器の効率を高めるといった方法もある。

 日本データセンター協会では、会員以外の企業にも自主的な節電を呼び掛けていくとともに、経済産業省に対してデータセンターが安定して稼働できるための施策を要望しているという。

シャープDS、月額1万円台の低価格なクラウド型サイネージ配信サービス

シャープドキュメントシステムは、デジタルサイネージの表示コンテンツを手軽に低コストで配信できるクラウド型サイネージ配信サービス「3swebサイネージ配信サービス」を開発し、7月1日より発売すると発表した。費用は月額12,000円/ライセンス(税別)。

システムイメージ
ネットワーク上に設置したサーバからインフォメーションディスプレイに対して、情報コンテンツ(静止画や動画など)を配信、表示させることができるシステムであるe-Signage作成した表示コンテンツを、クラウドサーバに保存し、配信先を設定すれば、遠隔地に点在するデジタルサイネージ端末へ配信することができる。

専用VPNの構築やサーバへの初期投資が不要となり、低コストでのシステムが導入できる。

iCloudに対する既視感と新規性

 iCloudに関する噂は今年(2011年)の初め頃から繰り返し耳にしていた(もちろん、その内容は噂の域を超えるものではなかったが)。単純にiTunesのクラウド化という話だけなら、昨年(2010年)から話題に上っていたと思う。とはいえ、多くは漠然としたもので、ライバルたちが徐々に進めていたクラウドを活用したiOS母艦のバーチャル化なのだろう程度の話である。

 この話に注目していた理由は、手前味噌ながら、筆者の最近著で"iOSの位置付けが変更されるだろう"としていた予測が、どこまで方向として正しいかを確認したいという気持ちが強かったからだった。

 その中でiOS搭載デバイスがより発展するためには

・iOSの使いやすさの源泉であるシンプルさを保ちながら、母艦であるパソコンから独立した存在になること
・シンプルさを維持するため、ネット上のサービスを"母艦"に見立てた枠組みを作ること
・コンピュータの処理能力を間接的に活用できること
・ソニーが提供しているようなデータアップロードを伴わないクラウド型のメディアライブラリ機能に対応すること

などが必要だと書いていた。おそらくAppleはこれらすべてに、もれなく対応することになるだろうとも考えていた。これは予言でも、当て推量でもなく、そうなる必然性があるからだ。すべてユーザーの利益になるだけでなく、Appleの事業にとってプラスになる要素なのでトレンドとして取り入れない理由はない。

 一方、良い意味で予想を裏切るかもしれないという期待も密かに抱いていた。ところが、まったく予想通りとは言わないものの、少なくとも表面的にiCloudに意外性はなかったと言える。これは言ってみれば、特定のミドルウェア機能を組み込んだオンラインストレージサービスだ。

 単純なストレージ機能を提供しているわけではないが、1990年代終わり頃のXMLによるインターネット上の情報リポジトリ(格納庫)サービスと考え方はほとんど同じだ。XMLによってスキーマを定義し、データに意味を持たせることで、複数のアプリケーションから利用する情報を1つにまとめようとした。

 iCloudのアプローチはもっと単純で、用途やデータタイプをあらかじめ想定する範囲とした上で、シンプルな利用方法で簡単にデータを共有しようという提案だと思う。従来は何か1台の母艦と決めたパーソナルコンピュータ上のデータとiOS機器を同期していたが、iCloudはクラウドの中に用意した仮想的な記憶装置(を備える仮想コンピュータ)が同期の相手だ。

 WWDC基調講演のあと、海外の情報サイトでAppleが"同期"という言葉を使っていないことを指摘するのを見た。日本語のニュースリリースもチェックしてみたが、やはり(おそらく意識して)同期というキーワードを使っていない。推測だが米Appleはプレスの先行オリエンテーション(Appleはメッセージが明確を伝える事を意図して、各国から選んだごく一部報道関係者に、先行して機能やマーケティングメッセージの情報を渡している)で、同期という言葉を使わない事に関してクギを刺されたのではないだろうか。

 しかし、iOSデバイスとiCloudの間のプロセスを俯瞰して見るれば、やっていることは同期に他ならない。同期ではないというのは、従来とは異なる手法であることを強調するためだろう。iCloudのコンセプトは、一般的なオンラインストレージが持つ多様な機能やサービスを一カ所に集めたような構成だ。それ故、機能だけを追っていると既視感が強く、新味に乏しいという印象しか残らない。

 しかし、技術やコンセプトの話をいったん置いておき、ユーザーの視点、使い勝手から見ると、iCloudのそれは同期とは一味違うものになっていると思う。Appleが、"今日までに提供されてきたあらゆるサービスを超える無料のクラウドサービス"と自画自賛するほどの違いが出るかどうかは、実際の実装やWindowsでの振る舞い、iCloud Storage APIに対応したアプリケーションの開発動向
などを見なければ判断できない。

 だが、そのシンプルな実態とは裏腹に、ユーザーが抱えてきた問題を解決する糸口になるかもしれない。

2011年6月8日水曜日

SNS向けゲームに関心=女性がターゲット

世界最大のゲーム見本市「E3」が7日、当地で開幕した。大手が巨額の製作費を投じる高画質ゲームへの支持が根強い半面、人気の交流サイト(SNS)向けの手軽なゲームに業界関係者の関心が寄せられた。新興企業はこの「カジュアルゲーム」を武器に女性を中心とする未開拓層の掘り起こしを目指す。
 戦闘ゲームを得意とするロシア系のオンラインゲーム大手ニーバルは、年末商戦を狙ってSNS最大手フェイスブックの米国会員向けに提供する「城攻略」ゲームを披露。インターネット経由で友人らと協力しながら進めるのが特徴で、オルロフスキー社長(38)は「爆発的なSNS人口の増加を収益に結び付けるには米国でのヒットが不可欠」と話した。
 また、「クラウドコンピューティング」をいち早く導入し、割安料金で急成長中の新興ゲーム配信会社、米オンライブの幹部は「魅力的なコンテンツの品ぞろえをめぐり、SNS間での競争が間もなく本格化する」と商機をうかがう。日系を含む複数のSNSとの提携協議が進行中という。 

Twitter、つぶやいたURLを自動で短縮する機能を実装

 米ツイッター(Twitter)は7日(現地時間)、ツイートに含まれるURLで自動で短縮する機能を搭載したと発表した。まず一部のユーザーに公開され、順次対象ユーザーを拡大していく。

 Twitterでつぶやける文字数は140文字以内と制限があるが、同機能によりURLをツイート欄に入力しつぶやくだけで、URLが19文字に自動で短縮される。短縮されたURLは、オリジナルのURLが分かるような形になるという。

 従来URLを短縮する場合は、「bit.ly」や「TinyURL.com」など第三者が提供するサービスを利用する必要があったが、今回Twitter自身がこの機能を実装した。これらの外部サービスも引き続き利用可能だという。またセキュリティにも配慮し、セキュリティ面で問題のあるサイトをクリックした場合、警告画面が表示される仕様となっている。

Facebookが日本でもクーポンサービスに進出

 Facebookは6月7日、自分の今いる場所に近いお店のクーポンが手に入るサービス「Facebookチェックインクーポン」を日本で提供すると発表した。GPS対応のフィーチャーフォンやスマートフォンで利用できる。米国で「Check-In Deals」として提供されていた機能で、アジアでは初の提供となる。

 モバイル端末のGPSを活用して自分の現在地を友人に知らせる「Facebookスポット」機能と連動。ユーザーがスポット機能を利用すると、近隣のスポットが一覧表示される。チェックインクーポンがあるスポットは黄色いアイコンで表示され、選択するとスポットの詳細やクーポン内容が確認できる。スポットにチェックイン(登録)すると、クーポンを入手できるとともに、クーポンを入手したことが友人にも知らされる仕組みだ。

 クーポンは、1人向け/1回限りのものから、友人とチェックインすることで入手できるグループクーポン、チェックイン回数に応じてもらえるポイントクーポン、チェックインによって慈善団体に寄付が行われるチャリティークーポンがある。

 国内では14社(6月7日時点)がチェックインクーポンを提供する。adidas、GAP、サガセン・ゼンモール、しゃぶしゃぶ温野菜、SLY、Disney Store、TIPNESS、Domino's Pizza、日高屋、Family Mart、富士急ハイランド、MINISTOP、UNITED ARROWS、LAWSONの店舗・施設で利用できる。

消費電力の見える化、継続的な節電へ

 過去数十年、今ほど節電意識が高まったことがあっただろうか。東日本大震災による原発事故の影響で、東京電力の電力供給力は大幅に低下した。これに伴って、日常生活のさまざまな場面で「節電」の文字を見るようになった。

 原子力発電を推進してきたエネルギー政策は見直しを迫られ、電力を取り巻く社会システムが、大きく変わろうとしている。再生可能エネルギーを積極的に電力源として利用する試みに加え、送配電網と情報通信技術を融合させた「スマートグリッド」の導入、電気自動車を含む蓄電池を活用する動きが加速するだろう。

 変化は、社会システムという大きな枠組みにとどまらない。オフィスや家庭といった日々の生活シーンでも、節電に取り組もうという機運が高まっている。継続的な節電に貢献するのが、「消費電力の見える化」や、「宅内エネルギー管理システム(HEMS:Home Energy Management System)」による機器制御の仕組みだ。

 もちろんこれまでも、オフィスや宅内の消費電力を監視する仕組みはあった。ただそれらは、配電盤や分電盤に電力計を設置し、全体または系統ごとの消費電力を把握するものが主だった。ここ最近注目が集まっているのは、より細かく、機器ごとに消費電力を測定しようという取り組みである。機器ごとの消費電力の情報をインターネット上のアプリケーションソフトウェアと連携させ、利用者の行動を促すといったサービスの準備も整ってきた。

電源タップに無線機能を組み込む

 2011年5月に開催された組み込み機器の総合展示会「第14回組込みシステム開発技術展(ESEC2011、2011年5月11〜13日)」や、無線通信関連の展示会/セミナー「ワイヤレスジャパン2011」(2011年5月25〜27日)では、消費電力の見える化に使う電源タップを各社が出品し、参加者の注目を集めていた。

 これらの電源タップには、電力測定用センサーと無線通信機能が組み込まれている。各コンセントに接続した機器の消費電力の情報を、無線ルータを介してインターネット上のサーバに送れることが大きな特徴である。

 無線機能を搭載した電源タップを展示した各社は、コンセントに接続した機器ごとの消費電力の情報を、タブレットPCやノートPCで確認できることや、電源のオン/オフを制御できることを見せていた。各ブースの担当者によれば、このような仕組みを導入することで、「いかに節電するかというポイントが明確に分かる」といった効果や、「消費電力の値を見せることで、日々の生活における節電意識を高めることにつながる」、「消費電力の情報を基に電力の使い方をアドバイスするといった、インターネットサービスと連携させやすくなる」という効果が得られるのだという。

無線方式はさまざま

 消費電力の見える化に使える電源タップの構成は前述の通りシンプルだが、各社が異なる無線通信規格を採用しており、統一されていない。この点は、電源タップを使った節電システムの普及を進める上で、障壁になる可能性がある。

 候補に挙がっているのは、物理層に「IEEE 802.15.4」規格を採用した独自プロトコルの無線や、低消費電力の無線通信規格「ZigBee」、920MHz帯または950MHz帯を使う「Z-Wave」、無線LAN(Wi-Fi)などである。ESEC2011やワイヤレスジャパン2011では、電源タップを展示した各社が自社製品の特徴に加えて、採用した無線通信方式の優位性をアピールしていた。

 電源タップを使って各機器の消費電力を測定し、ブリッジ機器を介してインターネット上の管理サーバに情報を送る。この情報を基に、電気料金を表示したり、使用傾向を分析したり、節電目標に対する達成度合いを提示したりといった、節電のための行動を促す情報を提供するサービスである。

見える化の次は機器制御

 電力の見える化が広まれば次に来るステップは、空調や照明といったさまざまな機器の稼働状況を、その時々の環境に合わせて制御するHEMSの実用化である。HEMSの頭脳となるのが、機器制御を管理するHEMSコントローラーだ。HEMSコントローラーが、どのような状況で、いかに機器を制御するかを各機器に指令する。

人工知能技術を空調制御に活用

 室内の温度や湿度、消費電力の履歴、気象データを基に、空調の運転状態を自動制御するシステムである。例えば、在室している人数が増えたり減ったりといった室内環境の変化に対して冷やし過ぎを防いだり、外部の気温に合わせて設定温度を制御したりすることで、消費電力を削減する。

 人工知能技術を活用することで、消費電力を削減しつつも、利用者に違和感を与えないようなシステムを構築した。この空調制御システムは、直接的に消費電力を制御しているわけではない。ただ、将来的には、使用期間が長くなるほど機器の稼働状況の予測精度を上げられる人工知能技術を、HEMSの電力制御システムに融合する取り組みが進みそうだ。

フィッシング詐欺、「知ってる」だけでは防げない

 インターネットはもはや当たり前のものとなった。だが「見たいサイトにアクセスできる仕組み」「そこに潜んでいるリスク」については詳しく知られていない。インターネット利用の安全性を担保するなら、まずは背景や仕組みを"理解"することが大切だ。
 総務省の調査によると、2009年度、日本のインターネット利用人口は9408万人と国民の78%を記録した。だが、インターネットがこれほど当たり前のものとなった中でも、「サイトにアクセスすると、なぜそのサイトが表示されるのか」、その仕組みについてはあまり知られていないのではないだろうか。もちろんITに携わる人なら、「DNS(Domain Name System)という仕組みがアクセス先に対応するIPアドレスを探し出し、コンピュータがそのIPアドレスを使って通信する」ということは知っているだろう。だが、その仕組みを「さまざまな専門用語を理解した上できちんと第三者に説明」できるだろうか?
 特に近年、インターネットの利用に安全性を求める声が高まっている一方で、「DNSの応答を偽造して、利用者を本来の通信先ではない通信先に誘導」する手口、「DNSキャッシュポイズニング」を使ったフィッシング詐欺が相次いでいる。そうしたリスクへの対策を考えるためには、まず"インターネットの仕組みの根幹"である「DNSの仕組みを理解しているか否か」が重要なポイントになることを、その解説を通じて強く示唆しているのである。
 例えば、リスクの問題以前に、そもそも「DNSのサービスは、誰がどのように行うのか」はご存じだろうか。DNSはその仕組み上、利用者からの要求により名前解決を行う「キャッシュDNSサーバー」と、各ドメイン名を管理する「権威DNSサーバー」の2種類が協調して動作する。一般に、前者についてはインターネットサービスプロバイダ(ISP)やデータセンターが管理を担うが、利用者が多数に上る企業や大学の場合は、その組織自身が管理するケースが多い。
 だが、「権威DNSサーバー」は「そのドメイン名を委任された登録者が管理責任を持つ」。このため、「その関係者は多岐に渡る」ほか、DNSサービスの利用者は、その「ドメイン名の委任先の権威DNSサーバーが提供するサービス品質」の影響も受ける。従って、「DNSのサービス品質は、サービスを提供するISPやレジストリ、DNSプロバイダなどにより大きく異なる」ことを認識しておく必要があるし、「サービスレベルや提供条件」も吟味する必要があるのだ。本来なら、こうしたことを把握しておかなければ、自社Webサイトや電子メールなど、自社のインターネット利用に高度な安定性・安全性を担保することは難しいのである。
 リスクについても、その危険性の"中身"を理解しておく必要がある。前述のように、「DNSキャッシュポイズニング」は「キャッシュDNSサーバーをだまして、名前解決要求を出した利用者をだます」手法だが、その怖さは「名前解決した応答をキャッシュに保持し、以降は同一ドメイン名に対する応答をキャッシュされた情報を使って返す」というキャッシュDNSサーバーの機能を逆手に取っている点にある。
 つまり、最初に名前解決要求を出し、そのサイトにアクセスした利用者だけではなく、同じ名前解決要求を出したその他の利用者もだまされることになるため被害が拡大しやすいのだ。加えて、この方法は「悪意のある第三者が事前に準備し、自身が名前解決要求を出すことで攻撃のきっかけを作り出すこともできる」というタチの悪さを持ち合わせている。
 もちろん、「多くのキャッシュDNSサーバーでは対策が取られている」し、「きちんとしたサービス提供者」なら以上のような問題は起こりにくい。だが、それゆえに"サービス提供者の吟味"が必要だし、サービスを吟味したり万一の対策を考えたりする上では"リスクの中身"をきちんと認識しておく必要があるのだ。
 加えて現在は、いくらDNSキャッシュサーバの管理を徹底したり、サービス提供者を慎重に選択したところで、「従来のDNSでは(その仕組み上)これを100%防ぐことが難しい」状況にもなっている。そこで、「DNS応答を受け取った側でその情報が本物であるかを検証」するための仕組み——「DNSSEC(Domain Name System Security Extensions:DNSセキュリティ拡張)」が開発され、導入のための活動が世界的に進められているわけだが、こちらについても背景や仕組みを理解しておくことが重要なことは言うまでもないだろう。
 インターネットの世界では、個人ユーザーでも「自己責任」が強く求められている。ましてや、消費者や取引先の安心と信頼を請け負う企業が「知らなかった」では済まされない。

2011年6月7日火曜日

Facebookは広告収益でGoogleを超えられるのか?

TechCrunchにて、Facebookはいずれ広告収益でGoogleを超えるのではないか、という見解が述べられている。記事では長々とその理由が語られているが、簡潔にまとめるとFacebookでは先に行われたデザイン変更によりユーザーはより詳細なプロフィールを登録するようになり、それに伴ってユーザー属性に応じて効果的な広告を出せるようになったため、広告の売り上げは今後向上していくのではないか、という話だ。

実際、このようなプロフィールなどを利用した「ソーシャル広告」はクリックされる確率が高く、その効果も高いそうだ。Facebookにはユーザーのプロフィール情報だけでなく、「いいね!」ボタンのクリック統計情報によるユーザーの指向情報やアクティビティなども蓄積されるとされ、またモバイルユーザーも多いことから、今後Facebookが広告収益でGoogleを超えるのは間違いないとのこと。日本ではまだまだ一般への普及の兆しが見えないFacebookだが、日本ではどうなるか気になるところだ。

Windows 8が対応するARM SoCはどれか、3社が勝ち、4社が負ける可能性

 Microsoftが、Windows 8の仕様をビデオ動画で初披露した。ARMコアを採用したSoCをPC向けに売り込むには、Windows 8対応となるのが早道だ。だが、Windows 8対応のARM版SoCのメーカーリストにはFreescale SemiconductorとMarvell Technology Group、Samsung Electronics、ST-Ericssonの4社が入っていない可能性がある。

 Microsoftは、2011年5月31日〜6月4日に台湾の台北市で開催した展示会「COMPUTEX TAIPEI 2011」で、Windows 8をAdvanced Micro Devices(AMD)やIntel、NVIDIA、Qualcomm、Texas Instruments(TI)のプロセッサ上で実際に動作させて見せた。

 Qualcommが2011年6月1日〜2日に米国カリフォルニア州サンディエゴで開催したプレス向けイベント「Uplinq 2011 Conference」では、ARM版Windows 8のSoCのベンダーとして名前が挙がったのは、NVIDIAとQualcomm、Texas Instrumentsの3社だけである。

 Intelの経営陣は、2011年5月に「MicrosoftはWindows 8の4つの版をリリースする計画だ。1つはx86版で、他の3つは特定モバイル用途向けARM対応のSoC版だ」と語っていた。

 以上の情報が事実だとすると、MicrosoftはWindows 8のSoCメーカーから、モバイル向けARM対応SoCの主要メーカーであるFreescale SemiconductorとMarvell Technology Group、Samsung Electronics、ST-Ericssonの4社を外したことになる。もしこのような結果になると、これら4社は、AMDやIntelという老舗の大手プロセッサメーカーとの競争力を失うことになる。

 Freescale Semiconductorの「i.MX」やMarvell Technology Groupの「Armada」など、これまでにスマートフォンのデザインウィンを獲得していないプロセッサは、今後さらに厳しい状況に追い込まれることになるだろう。

 さらに、ある大手機器メーカーのエンジニアによると、Marvell Technology GroupのArmadaプロセッサは、ARMの命令セットに対応した多くのバージョンがあるため、GoogleのAndroidにも完全には対応していないという。

 現在、スマートフォンやタブレットなど需要の高いモバイル機器への搭載を狙い、各社は数多くのARM対応SoCを開発、製造し、生き残りをかけた激しい競争を繰り広げている。Windows 8が、ノートPC市場とデスクトップPC市場への扉をNVIDIAとQualcomm、TIの3社だけに開いたとすれば、これら3社は2012年の市場競争で非常に優位に立つことになる。

 Microsoftは、スマートフォンやタブレットなどのモバイル機器向けシステムの分野では、まだ市場をリードする位置にはない。米国の市場調査会社であるForward Conceptsは、モバイル向けOS市場におけるMicrosoftのシェアは今後拡大を続け、2010年は9%だが、2015年には11%に増加すると予測している。だが、Windows 8がモバイル向けOS市場でどれほどのシェアを獲得できるか、またMicrosoftの十八番であるデスクトップPCやノートPC市場の起爆剤となり得るのかは、現時点ではまだ定かではない。

Windows 8のUIはスマートフォンに向く

 Windows 8のユーザーインタフェース(UI)は、同社の携帯型音楽プレーヤー「Zune」やモバイル機器向けオペレーティングシステム「Windows Phone 7」と似ている。

 MicrosoftのMP3プレーヤZuneで初めて採用され、Windows Phone 7で改良した形で継承したタイル式UIをWindows 8は採用している。このことからも、モバイル機器向けシステムの重要性の高まりを意識して開発を進めていることが分かる。

 タイルUIは表示する大きさを変えたり、各種アプリケーションのアイコンの代わりにライブデータや画像を表示させたりすることができる。使用中のアプリケーションの画面をPCやタブレット、スマートフォンに大きく表示させながら、画面の端にその他のアプリケーションのタイルを小さく表示するといった使い方もできる。

2011年6月6日月曜日

Windows Azure とは

Windows Azure は、新しい発想を実現するクラウド アプリケーション プラットフォームです。.NET、Java、PHP など複数の言語とテクノロジに対応し、アプリケーションをクラウド環境で構築、実行できるので、数か月ではなく数分のうちに実稼動できます。

インターネット上にあるデータ センターのマシンでアプリケーションを実行できるクラウドを活用することは、数多くのメリットがあります。クラウド上でアプリケーションを実行するには、自社運用と同じようにプラットフォームが必要です。マイクロソフトの Widows Azure はまさにクラウド上でアプリケーションを実行、または開発するためのプラットフォームなのです。

微博

 微博というのは高度に社会化されたコミュニケーションの場であるとし、微博にはメール、インスタント・メッセージ、メディアの3種の機能が含まれるとしている。以前は、情報は発信者から受容者(一般消費者)に一方的に発せられるものであったが、微博の出現により情報の発信は格段に簡単になった。また、短い文章で発信するスタイルであるため、文章の内容に関するハードルも低くなった。そのことにより、情報は、人から人へと簡単に伝達されていくものに変わり、一人一人がメディアとなった。

 「微博は人の欲求を満たし、生活を満たされたものにする」と考えているからである。人の欲求を5階層に分けている。生理的欲求、安全への欲求、社交への欲求、尊重されることへの欲求、自己実現の欲求である。上記の欲求は、あとに行くほど高次元で、「自己実現の欲求」が最も高次元の欲求といえる。微博の出現により、人々はより高度な欲求を満たせるようになった。微博は、もともとコミュニケーションをとり、社交への欲求を満たすツールであったが、ファン(自分に注目している人)を増やすことにより、尊重されたいという欲求を満たし、ファンが増えれば自己実現もできるようになる。経済力でも世界2位になった中国人はより高い次元の欲求を満たすべく、走り始めている。その一つの表れが微博の爆発的な流行であるといえよう。

 もしあなたが望めば、あなたが書いたコメントがすべて携帯電話を通してすべての知り合いに知らされ、完璧に記録されデータ化される。このため、あなたはもう、人に会った時、名前が出てこないと言って困ることは無くなる。たとえば、パーティーに行くと、携帯電話にはこのようなメッセージが入る。

 「人が何かを発信することで、世の中が様々なシーンで更に便利に楽しくなっていく」ということを主張している。

 旧来の一方通行の情報の伝達ではなく、互いが情報を発信し、受け取りあうことで世の中はさらに発展していく。中国人は、改革開放により、そのような情報のやり取りによってもたらされる物質的、精神的な豊かさを実感するようになった。中国のインターネットユーザーが目覚ましい勢いで増えているのは、単に経済発展の成果なのではなく、そう言った彼らの心理も背景にあるのかもしれない。

オープンソースSkype開発プロジェクト

フリーランスの研究者、Efim Bushmanov氏は、Skypeのプロトコルをリバースエンジニアリングしてオープンソース版Skypeを開発しようとしているそうだ。 Bushmanov氏のブログによれば、Skypeバージョン1.x/3.x/4.xおよびRC4レイヤーの解析などはおおむね完了しているとのことで、Skypeにメッセージを送信するサンプルコードも公開している。ただし、プロトコルのバージョンはSkype 1.4ベースであり、Skype 5.xには接続できないなどの問題があるとのこと 

同氏はSkypeをオープンソースプラットフォームとして生まれ変わらせたいのであろうが、Skypeを買収したマイクロソフトの弁護士から連絡が来るのは時間の問題であろうとgeek.comの記事は指摘している。また、SkypePR会社のKaplow PRを通じて、同氏の行為が知的財産を侵害する悪質なものであり、対抗措置を取る手はずを整えているなどとする声明を発表したとのこと

 

http://skype-open-source.blogspot.com/2011/06/skype-protocol-reverse-engineered.html

https://github.com/skypeopensource/

http://www.gnutelephony.org/index.php/GNU_Free_Call_Announcement

 

営業力の土台

 明らかに差別化できていて、優位性がある商品を売っている営業マンの皆様であれば、販売力強化(営業スキル、営業マン育成)、組織運営(マネジメント)の課題としてとらえればよいのですが、しかし営業マン自身が、お客様に自社商品の優位性について、自信を持って伝えられないとしたら、そもそもお客様にその商品の魅力を感じてもらえるでしょうか。市場の成長が期待できず、相見積もりやコンペ、新規参入が常態の中では、優位性が見えなくなった瞬間にリプレイスされてしまうでしょう。

 例え過去実績のおかげでリピートしているという取引でも、数ある競合と比較して、他社を選ばずに、自社の商品を選んでくれている理由を明確に認識していなければ、やはり競合に足元をすくわれます。実績のない競合が新規でアプローチするときは、自社の強みは同等にカバーできて、自社の弱みに競合の強みをぶつけて、攻めてくるからです。上司である管理者は、お客様との関係性や優位性を、明確に認識して囲い込むよう指導しなければいけません。

 営業力の土台となる事業の定義は、「エーベルの3次元」を活用すると3つの軸で表現します。「どういうお客様(WHO)に、どういう価値(WHAT)を、どのように(HOW)買っていただくか」を明確にすることです。

A.WHO(お客様との関係性)
B.WHAT(お客様に期待される価値)
C.HOW(提供方法)

 上記の3つの軸に営業の焦点を考えると、営業スタイルは3つのモデルに分類されます。

 決して単純に、薄利多売効率化型が簡単で、高付加価値深耕型が高度というわけではありません。これはお客様に求められる価値によります。高付加価値深耕型は組織・個人の技術力や問題解決力を求められますが、薄利多売効率型は組織の効率的仕組み、安く提供できるパターン化、広いターゲットに対応できる体制が求められるからです。

 競合がひしめく中で、2番目以下は選ばれません。中途半端、あいまいな強みは意味をなしません。お客様はその会社の卓越した強みとしか付き合わないからです。競合との比較でどれだけ明確に優位性をお客様に認識していただけるかがビジネスでの勝負となります。お客様から評価されている自社の強みは何か、何を優位性として、独自のポジショニングをつかむかを考えることが重要です。

 業界標準が効率性や安さで認識されていれば、さらに磨きをかけて、追従を許さないナンバーワンのポジションをつかむ。その1点で戦わないのであれば、複数の総合力か、焦点をずらして差別化して、柔軟性や対応力や、高い問題解決力を強化して、深く入っていくスタンスをとる。

 業界標準が複雑に高度な技術力や問題解決力を前面に出していれば、パッケージ化して安く手軽さを売りにする。市場のすべてのお客様を相手にするわけではないので、分かりやすく、優位性あるポジショニングをつかむ。この3つのモデルに沿って、営業の焦点をずらしていくことが営業変革の基本パターンです。

 売れるものが見えなければ、営業成果が上がらないのは当然です。市場を見据えて、広さと深さを変えて、競合を意識した相対的な強みを生かせるポジショニングをいち早くつかんでいく。そして営業の焦点を変えて営業戦略・営業計画に盛り込んでいく。営業が、お客さまに自信を持って、商品サービスをご案内できるようにする。そのために、営業現場の属人的な個人力に頼るのではなく、売れる仕組みを創っていくことがまず最初にしなければならない営業変革です。

 このことは、事業そのものを強化することであり、全社一丸となって優位性のある商品力を生み出す活動と連動させることになります。そして、組織運営や人材育成、マネジメントに整合性を持たせ、全体最適で一貫性を持たせて強化していくのが強い事業の作り方なのです。

人間は100%ミスをする、だから原発事故はなくならない

自動車、鉄道、船、飛行機。いずれを取っても事故はゼロではない。どんな対策を練っても、永久にゼロにすることは不可能だ。それらの事故は一定の割合で確実に発生している。

 事故はそれだけではない。ユッケ肉事件などに象徴されるように、食の分野でもなくならない。季節になれば毎年、フグ中毒やキノコ中毒で死者が出たとニュースが流れる。電気製品や機械の使用を誤っての事故など、意図しなくてもミスによる事故は身の回りにあふれている。

 比較的最近に登場したコンピューターではどうだろう。ホームページの更新をしたことがある人なら分かるはずだ。専用のHTML言語を正しくいじったはずなのに表示されない。あらゆる可能性を試したが、やはり表示されない。「こいつ(コンピューター)、絶対におかしいよ!」と毒づいてみるが、結局は人間の負けだ。コンピューターはバカ正直で人間様の言われた通り、素直に動いている。どこかに人間による入力ミスがあるから表示されないのだ。

 震災後に日本を代表するメガバンク、みずほフィナンシャルグループがシステムトラブルを起こし、トップが交代するに及んだ。会社側は義援金の申し込みが想定を超えていたと説明したが、少なくともほかのメガバンクでは起こっていない。想定するのも人間、あらかじめ準備をしておくのも人間だ。そこでミスが起こっていて、トラブルにつながっている。さらには事後の対応ミスがトラブルを拡大した。すべて人間のせいだ。

 「あの人は完璧だなあ」と思える人に巡り合ったことはあるが、「100%ミスをしたことがない人に出会ったことがあるか」と聞かれたら、答えはノーだ。人間はミスをする生き物だ。そして、世の中の事故は、自然"災害"を除けばすべて人間が引き起こしているのだ。

 JR西日本が引き起こした福知山線の脱線事故(2005年)の例が分かりやすい。事故後に同社は反省してATS(自動列車停止装置)というシステムを導入したが、ミスはなくならなかった。システムのスイッチを切ってしまう人や無視する人がいたからだ。

 完璧なサイボーグを作ればいい。それを一体誰が作るの? 人間? どんなに100%完璧なシステムを用意できたとしても、人間がボタンを押す限りミスと事故はなくならない。かといって人間がボタンを押さない限りはコンピューターも動かない。結局世の中からミスと事故はなくならないのだ。

SIP再考——複数のメディアを融合させたコミュニケーション"

 SIPとは、IETF(Internet Engineering Task Force)の標準通信プロトコルで、音声や画像などのマルチメディア情報のセッションを制御するために開発された技術だ。IP電話、テレビ電話/ビデオチャット、インスタントメッセージなど「双方向のリアルタイム通信の制御」に適している点が特徴だ。リアルタイム・マルチメディア・データ通信に利用されるプロトコル、H.323もあるが、SIPはH.323に比べるとその構造や、テキストベースであるため扱いがシンプルな点で、将来的にメディアを拡張する面で有利だと言える。

 ただ周知の通り、SIPは新しい技術ではない。また、2000年代初頭には注目を集めたが、それ以降はさほどメディアなどに取り上げられることもなく今に至っている。よって、前のページでSIPと聞いたとたん、「何を今さら」と思った向きも当然あるだろう。だが、企業(エンタープライズ)コミュニケーションにおいて広く普及したと思われていないSIP は、実は通信サービスプロバイダの領域では、IMS (IP Multimedia Subsystem=第三世代携帯電話の規格団体である3GPPによって策定された「携帯電話コアネットワークをIP化し、マルチメディアサービスを実現する」システムのこと) 基盤のプロトコルとして広く使われるようになっていることに注目したい。

 現在はマルチメディアを使ったコミュニケーションが、以前に比べて非常に活発化している。よって、通信サービスプロバイダだけではなく、多くの企業にとって、今あらためてその有用性に注目することが重要なのではないか、ようやくSIPの特徴が本格的に、広く求められる状況になってきたのではないか——そう考えたのが、本連載を企画したきっかけである。実際、昨今の業務トレンドやニーズを思い浮かべながらSIPについて考えてみると、実に多様な可能性が広がっているのだ。

 まず、企業がSIPを利用するメリットとして、あらゆるコミュニケーション手段の運用コスト削減が望めることが挙げられる。新しいサービスを迅速に構築できることも大きなメリットだ。特に昨今は、スマートフォンなどのマルチメディア対応携帯端末が急速に浸透している。これは企業がコールセンターの一サービスとしてビデオや動画配信を始めた場合も、サービスの受け手側が任意にそれらを享受できる環境が整っているということだ。このため、企業は"端末に依存した開発コスト"を抑えながら、「迅速にサービスを立ち上げられるSIPの利点」を存分に生かすことができる。

 スマートフォンを利用してコンタクトセンターに問い合わせをしてきた顧客には、通話しながら、必要に応じて問い合わせに関連する画面やストリーミングを配信することも可能だ。前述のように、Twitterのタイムラインを監視して、社内の関係者に問い合わせ、適宜レスポンスする、あるいは社内に蓄積するといったこともできる。

 社内コミュニケーションも効率化・活性化できる。例えば、SIPを利用したIMなら、メッセージ交換だけではなく、プレゼンス情報も提供してくれる。企業内で連絡を取りたい相手の在席状態を把握できれば、電話を掛けようとした相手が「通話中」なら、電子メールやIMを選ぶといった具合に、無駄なコミュニケーションを減らせる。電話会議中の相手と、自分が見ている資料をPC画面で共有しながら話を進めることもできる。マルチメディア対応はもちろん、"複数のメディアを融合させたコミュニケーション"を効率的に実現できる点もSIPの特徴であるためだ。

 また、PCやモバイルが普及している今、そうした特徴を生かせば、時間と場所を選ばず"いつでもどこでも仕事ができる"環境も整えやすい。リーマンショック以降、コスト削減やパンデミック対策としてビデオ会議やWeb会議を導入する企業が大幅に増えたが、昨今重視されているBCPの観点でも、SIPはワークスタイルのさまざまな可能性を示唆してくれるのである。

 もちろん、コミュニケーション基盤を整備する方法はSIPを使ったものだけとは限らない。ただ以上のように、SIPには「効率的なマルチメディア対応」「コスト削減」「新サービスの構築が容易」という大きな3つのメリットがある。これらはまさしく今、企業が求めているものなのではないだろうか。

企業コミュニケーション

 電話や電子メール、インスタントメッセージング、グループウェアなど、コミュニケーションツールを円滑に使える体制があることは、ビジネスを円滑に進めるための前提条件と言える。さらに近年はスマートフォンなども加わり、企業にはマルチメディアを使いこなせる技術基盤の整備が強く求められている。

 市場環境がめまぐるしく変化している近年、企業にとって"コミュニケーション"が非常に重要なテーマとなっている。コンタクトセンターに代表される社外コミュニケーションなら企業ブランドに大きく響くし、社内コミュニケーションなら、効率的な意見交換や情報共有が、業務効率や製品・サービス開発などの面で収益に影響する。

 これは日常を思い返してみると実感しやすい。例えば、あなたも消費者として企業に電話で問い合わせをしたことがあるだろう。その際、電話がつながるまで長時間待たされたり、ようやくつながったと思えばオペレータ間をたらい回しにされたり、といった経験があるのではないだろうか。IVR(音声自動応答装置)の長々としたアナウンスを最後まで聞き、IDや会員番号などを入力したにも関わらず、その後つながったオペレータにIDや会員番号を聞かれて、多少なりともイラっとしたことがある人もいるはずだ。

 言うまでもなく、そうした体験は企業に対する印象を悪化させる。だが反対に、例えば「電子メールでの問い合わせ内容について後日電話をしたら、その内容がきちんと把握されていた」、あるいは「問い合わせがスムーズに解決された」となれば、企業への好感度は向上する。すなわち「スムーズかつ快適な顧客対応を行うコミュニケーション体制」があることが、収益やブランドを守るための重要なポイントとなるのである。

 一方、社内で完結するコミュニケーションはどうだろう。こちらは電話や電子メール、グループウェアなどを使って部門内、部門間で必要な情報をスムーズに交換/共有できることがビジネス遂行の前提条件となる。このことは従業員が出社困難に陥るケースが多発した先の東日本大震災以降、あらためて認識する向きが増えたはずだ。

 もちろん、単なるビジネスの遂行だけではない。上記の問い合わせ対応の例のように、「的確に回答するために、社内の関係者がスムーズにコミュニケーションを取れる体制」はロイヤルティ向上の面でも不可欠となる。特に近年は、商品開発部門のスタッフがカスタマーサポート部門のスタッフと日常的に意見交換するなど、業務プロセス上は直接的なつながりがない部門間でも意見交換を行い、「業務効率や収益向上に役立つ気付き」を得ているケースも少なくない。

 つまり社内外を問わず、"スムーズにコミュニケーションが取れる体制作り"が、厳しい市場環境に対応するための非常に重要な鍵となっているのだ。

 ここまでは多くの人が日常的に意識していることだと思う。ただ、こうしたコミュニケーションを行うためには、それなりの技術基盤が必要となる。そこで、もう少し「コミュニケーション」というものを掘り下げてみたい。

 ここで考えたいのは、「コミュニケーションを円滑に行うためには、具体的にはどんな要件が求められるのだろうか?」ということだ。それは「相手に正確かつ分かりやすく情報を伝えること」ではないだろうか。これは長い間コミュニケーション手段の主役であり続けた電話をはじめ、インターネットの普及とともに浸透した電子メールやIM(インスタントメッセージング)などにも共通した要件だと言える。

 では、「相手に正確かつ分かりやすく情報を伝える」ためには、どんな要件が求められるのだろう? ここで注目したいのは、「日本では文化的に"対面によるコミュニケーション"が重視されてきた」ということだ。それを念頭に置いてみると、まず言えるのは、対話という形で「リアルタイムに意見交換できる」ことだろう。

 白板などを使って情報共有しながら説明した方が伝えやすいように、「視覚的に情報を交換できる」ことも挙げられる。さらに、ニュアンスも含めて情報を正確に伝えるために、表情や声の調子など「視覚と聴覚を同時に認識できる」といった要件も必要だ。また、円滑なコミュニケーションのためには、常に対面がベストとは限らない。よって、「相手や状況に応じて、3要件を使い分ける」というニーズも生じてくる。

 さて、いかがだろう。このようにコミュニケーションに求められる要件を整理してみると、音声、電子メール、ビデオ会議システムといったように、技術の進展とともに"より対面に近い形へ"とコミュニケーション手段が発展し、使い分けられてきたことは、ごく自然な流れであることがあらためて実感できるのではないだろうか。

 そして企業は、こうした"コミュニケーション手段のマルチメディア化"に対して着実に対応してきたことも分かるはずだ。その最も象徴的な例がコールセンターだろう。電話、電子メール、IM、チャットなど、マルチメディア化が進む消費者の動きに合わせて着実に顧客接点を確保してきた。特に近年は、TwitterやFacebookに代表されるソーシャルメディアで流れる情報をコールセンターで監視し、企業ブランドや収益向上に生かしている例も増えつつある。

 社内コミュニケーションも同様だ。音声、電子メール、ビデオ会議システムはもちろん、昨今はiPhoneやAndroidといったスマートフォンを業務で利用して社員の機動性を高めたり、電話、電子メールのほか、ビデオ会議を使って出張コストの削減に乗り出す例が急速に増えている。こうした状況を振りかえってみれば、"コミュニケーション手段のマルチメディア化"のトレンドは、ますます強まっていくことが容易に想像される。

2011年6月3日金曜日

Twitter、写真や動画の検索機能を搭載……Firefoxとの連携も

 米ツイッター(Twitter)は1日(現地時間)、検索に関する新機能を発表。検索ワードに関連する写真や動画が、検索結果画面に表示されるようになるほか、FirefoxにTwitterの機能が組み込まれた。

 検索ワードに関連する写真や動画は、検索結果の画面右側に表示されるようになる。ツイッターは同機能のデモ動画を公開しているが、それによればツイートの入力欄の下にカメラのアイコンが設置されており、そのアイコンを通して写真のアップロードが可能になるようだ。

 さらにMozillaと連携し、WebブラウザのFirefoxの新バージョンでは、アドレスバーにハッシュタグ(#hashtag)やTwitterのユーザーネーム(@username)を入力することで、該当するユーザーのプロフィールページなどを検索することができる。

 また今後数週間以内に、Twitter.comから直接写真をツイートに添付しアップロードできる機能がリリースされる予定だという。モバイル版でも同様の機能が利用できるようになる。ツイッターは、アップされる写真の保管に関して、自社サーバではなく写真共有サービス「Photobucket」を利用するようだ。またツイッターは、フィーチャーフォンユーザーがMMS(マルチメディア・メッセージング・サービス)を通して写真をアップロードできるよう、世界の携帯キャリアに呼びかけているところだという。

音声認識のしくみ

音声認識を行うためには、「音響モデル」と「認識辞書」が必要です。
音響モデルには、人間の発声の小さな単位(音素)の音響特徴が記述されており、認識辞書には音声認識させることばが記述されています。音声認識は、以下のような処理が行われます。
(1)入力された音声を分析し、音響特徴を算出します。
(2)認識辞書に記述されていることばの中から、ことばの音響特徴が入力音声の音響特徴に最も近いことばを探して音声認識結果として出力します。これまでの音声認識では、人間の自由な発話を一語一句認識することは難しく、認識することばを記述した認識辞書を持っているのが一般的でした。
自由発話対応の音声認識エンジン「SpeechRec」では、上記の音声認識技術に加え、実例を数多く集めた言語モデルや発話理解技術、対話制御技術などを駆使して、人間の自由な発話を高精度に認識し発話を理解できるようになりました。電話回線、IP電話、インターネット、直接対話など多様な利用環境下で、子供から高齢者までさまざまな不特定の話者が自由なタイミングで、自由な言い方で話しても発話を認識することが可能です。

SharePoint OnlineとOffice365ベータで、クラウドベースのコラボレーションソリューションを構築する

Office365ベータには、Office Professional 2010に加えて、Microsoft Online
Servicesとして知られるコミュニケーション&コラボレーションスイートのアップデート版が含まれている。これには、クラウドバージョンのExchange 2010、 Lync Server 2010、SharePoint 2010によっ
て構成されている。

SharePoint Onlineのソリューションを構築する手順は、SharePoint 2010と似ている。開発者は、SharePoint Designer 2010、 Visual Studio、そしてSharePoint APIとSDKsといっ
た、使い慣れたツールを使うことができる。しかしながら、Office365ベータ上でSharePointソリューションを展開しようと計画する時には、知っておかなくてはならない、いくつかの大きな違いが存在している。

たとえば、複数のクライアントとデータセンターを共有して実行するようなファームスコープ(全体のサーバーファーム)は、SharePoint Onlineには存在しない。クラウド上では、サイトとWebス
コープのみが提供されている。完全信頼は、同じ理由で許可されていない。

SharePoint 2010の大きな機能であるフィーチャーもまた、SharePoint Onlineでは、サポートされないものもある。 (2つのプラットフォームのそれぞれの比較として、Office 365のド
キュメントが提供されている。)Business Connectivity Servicesは、現在含まれていないが、後日追加される予定がある。さらに興味深いのは、SharePoint OnlineからからWebサービスを除外していることであ
る。理由は、それらが部分信頼アプリケーションのみがサポートされていないためである。マイクロソフトは次のように述べている。

"サンドボックスソリューションで使う場合、外部データ接続は有効ではないが、Microsoft
SilverlightやECMAScript (JavaScript, JScript)のようなクライアントアプリケーションを通じて、それらにアクセスすることができる"
マイクロソフトは、サンドボックスソリューションを使って開発することを推奨しているため、クラウドでSharePoint Onlineを使う制限により、アプリケーションは、自動的にスコープと信
頼の壁にぶつかることになる。

Visual Studio 2010では、サンドボックスのSharePointソリューションでIntelliSenseがサポートされるが、完全にはサポートされていない。これを補助するためにマイクロソフトは先日、サンドボックスのSharePoint Onlineプロジェクトに
完全なサポートとVisual Webパーツプロジェクトのアイテムテンプレートに追加する、Visual Studio 2010 SharePoint Power Toolsを紹介した。

SharePoint Onlineデベロッパーガイドは、現在Microsoft Download Centerで公開されている。

仮想マシンの災害復旧計画

仮想マシン(VM)の災害復旧として広く利用されているジオクラスタリング。その効果は選択したソフトウェアやソリューションに大きく依存する。

 現在、より洗練されたクロスサイト復旧を実現するさまざまなジオクラスタリング製品が利用可能だ。ジオクラスタリングは自動フェイルバックと自動フェイルオーバー、分散DRサイト、Raw Device Modeデータをサポート
し、Virtual Centerを必要としない。

 米Symantecの「Veritas Cluster Services」(以下、VCS)は、物理サーバからVM、VMから物理サーバ、VMからVMへのフェイルオーバーが可能だ。例えば、VCSは保護サイトの物理サーバをリモートサイトのVMに、あるいはその逆方向にフェイルオーバーできる。こうした機能は、米VMwareのソフトウェア「vCenter Site Recovery Manager」(以下、SRM)がデータセンターの
ニーズに応じてサポートしようとしていたものをはるかに超えており、十分検討に値するものといえるだろう。また、VCSはVMフェイルオーバーをサポートするとき、ESXサービスコンソールレベルで実行する。

 「Windows HPC Server 2008」は、もう1つのジオクラスタリング製品だが、サーバからサーバ、VMからVMへのフェイルオーバーしかサポートしていない。また、HPC Serverはローカルとリモートの双方のサイトの
Windowsサーバで実行しなければならないため、サポートするのはWindowsからWindowsへのフェイルオーバーだけだ。

 ほとんどの自動フェイルオーバー機能は、SAN(Storage Area Network)あるいはアレイレプリケーションに大きく依存し、それらのアプローチを組み合わせてフェイルオーバーの自動化を実現している。

 データストアのレプリケーションが行われると、管理者はネイティブなVMwareなどのソフトを利用してVMのフェイルオーバーを独自のスクリプトで半自動化できる。ただし、そのカスタムスクリプティングでは、VMを実行するためのESXサーバの再構成、VMのIP再割り当て、レプリケートされたデータストアのコピーのプロモートなど、一切の作業をカバーしなければならない。

 米EMCの「NetWorker」「CommVault Simpana」、米IBMの「Tivoli Storage Manager(TSM)」、そしてSymantecの「Backup Exec」と「NetBackup」などのデータ保護パッケージは、いずれもさまざ
まなレベルでDRをサポートしている。それらのサポートレベルは、ベアメタルリストアオプションや先進的な独立バックアップデータレプリケーションなどの構成要素によって違ってくる。

 TSMは、TSM保護データをリモートサイトに自動でレプリケートするときに利用できるDRマネージャオプションをサポートしている。TSMがリモートサイトでリカバリされると、データがリストアされ、VMはマニュアル操作か手書きスクリプトによる自動化で再構成される。

 一方、その他のバックアップパッケージは、ベアメタルリストアオプションをサポートしている。この機能は、サーバやVMに必要な全てのデータをワンステップでリストア可能なバージョンで提供できる。VMデータがリストアされると、VMをリモートサイトで実行するために再構成し、ネットワーキングのIPを再度割り当てる必要がある。それが完了すると、VMはパワーオンしてバックアップから復旧される。

 その他、バックアップパッケージはどれもリモートサイトでVMファイルデータの復旧に利用できる。ベアメタルリストアオプションがなければ、全てのVMデータをリカバーするステップ数は増えるが、いったんリストアすれば、その後の災害復旧プロセスは同様の手順で行える。

 VMwareの災害復旧は、さまざまな方法でサポートできる。しかし、どのような自動フェイルオーバーもデータレプリケーションやソフトウェアに大きく依存することになる。

VMware SRMは、ほとんどのVMフェイルオーバーを簡単に自動化できるが、現行では幾つか制約がある
ジオクラスタリングソフトは自動フェイルオーバー機能を提供するが、VCSには適用できず、単一のOSに限定される
SANまたはアレイレプリケーションも利用できるが、半自動フェイルオーバーにはカスタムスクリプトが要求される
 VM DRは単独のアプローチに限定する必要はない。レプリケーションの出費を考えれば、自動フェイルオーバーは幾つかのクリティカルなVMに限られ、他のマシンは自動復旧の対象から外されるだろう。クリティカルなVMは自動復旧、その他はマニュアル復旧といった多階層のDR計画は、上記の製品を組み合わせることで比較的簡単にサポートできる。

2011年6月2日木曜日

NFC非対応のAndroid機に決済機能を追加するシール、Googleが計画中

Googleが先日、近距離無線通信(NFC)を使った決済システム「Google Wallet」を発表した。この機能はNFC対応の端末でないと利用できないのだが、GoogleはNFC非対応端末でもGoogle Walletを利用可能にする「シール」を計画
しているらしい(TechCrunch)。

日本では同様におサイフケータイに対応していないiPhoneに電子マネー機能を提供するシールが発売されたが、Googleのシールでは、これを使った取引に関する情報が3G/無線LAN回線経由でGoogle Walletアプリに配信され、アプリで
履歴管理などが行える点が特徴のようだ。

クーポン サービス「Google Offers」、米国で試験開始

米国 Google は2011年6月1日、米国オレゴン州ポートランドでクーポン サービス「Google Offers」(ベータ版)の試験提供を開始した。ニューヨーク州ニューヨークシティやカリフォルニア州サンフランシスコなどでも提供を始める予定。

Google Offers は、地域のレストランやカフェ、各種店舗などの割引クーポンを紹介するサービス。Web サイトで対象都市などから利用可能なクーポンを探すことができる。

なお Google Offers は、Android 向け近距離無線通信(NFC)対応 モバイル決済アプリケーション「Google Wallet」と連携可能になるという。

Googleの「+1」ボタン、一般サイトでも設置可能に

 米Googleは5月31日、"Google版いいね!"とも言える「+1」ボタンについて、一般サイトなどにも提供を拡大すると発表した。

 「+1」ボタンは3月末、Googleの検索結果ページへの導入が発表されていた。検索結果の横に表示される同ボタンをクリックすることで、気に入った検索結果を推薦でき、Googleプロフィールに登録されているソーシャルネットワークの友人の検索結果でもお勧めとして共有される仕組み。

 今回、「+1」ボタンの提供範囲を、他の一般のウェブサイトにも拡大したかたちだ。

 Googleでは、The Washington Post、O'REILLY、TechCrunchなど10社あまりと提携。数日中に、それらのサイト上で「+1」ボタンが表示される。Googleが運営するYouTube、Android Market、Bloggerなどのサイトでも表示するとしており、これらのサイトの閲覧者は、気に入った記事などを「+1」ボタンで推薦できるようになる。

 一般のウェブサイト運営者が、「+1」ボタンのコードを自身のウェブページに貼り付けることで同ボタンを設置することも可能だ。なお、ボタン自体は44言語に対応しているが、「+1」によるお勧めが検索結果に反映されるのは今のところ、Google.comの英語版のみだとしている。

Chromebooks for Business

インターネットをより高速に
Chromebooks は約 8 秒で起動し、Gmail や Google ドキュメントなどのウェブ アプリケーションを実行するために最適化されているため、非常にすばやく動作し、最新のウェブの標準に完全に対応しています。

組み込みのセキュリティ
ユーザーがインストールしたソフトウェア アプリケーションはウィルスや不正なソフトウェアの原因となる可能性があるため、Chromebooks ではそういったアプリケーションを実行しません。革新的なセキュリティ強化には、データの暗号化、アプリケーションのサンドボックス化、ゲスト モード、起動時の確認などが含まれます。詳細については、こちらをご覧ください。

容易な管理
Chromebooks では最新の機能に関する更新情報を Google から直接受信します。追加のソフトウェアは必要ありません。管理者は、ウェブベースの管理コンソールを使用して、特定のポリシー、拡張機能、アプリケーションを単一の端末や複数の端末にプッシュできます。また、アプリケーション データは端末内ではなくクラウド内に格納されるので、端末本体が紛失または盗難にあっても、情報は引き続き安全に確保され、アクセス可能です。

Google Apps との統合
起動したら、Google Apps アカウントを使って安全にログインして、すぐに Google アプリケーションや Apps Marketplace アプリケーションに直接アクセスできます。ブックマーク、アプリケーション、その他の設定は、ユーザーが使用する複数の Chromebooks やブラウザ間で自動的に同期されます。

低い総コスト
Gmail の強力な迷惑メール フィルタ機能によって、重要な作業に集中できます。Postini のフィルタ機能では、迷惑メール対策をカスタマイズできます。

Webマーケティング

Webマーケティングとは、インターネットを活用した宣伝・販売促進などの活動です。消費者ニーズが多様化する中でも、一人ひとりの消費者にきめ細かく商品やサービスを提案できる方法と言われています。

マーケティングのためのメッセージを消費者に伝える媒体として、新聞・雑誌・テレビなどのマスメディアは代表的なものの一つと言えます。マスメディアを使ったマーケティング、いわゆる「マスマーケティング」は広く大衆にメッセージを発信する効果的な手法として認知されていますが、共通のメッセージで多数の消費者に感心を持たせるマスマーケティングは、消費者が共通の関心を持っていなくては大きな効果を発揮するのが難しくなってきます。消費者のライフスタイルが多様化したことで、個々の消費者が必要とするモノやサービスも人それぞれになった結果、不特定多数を対象にしたマーケティングでは多くの消費者の関心を引き寄せることが、徐々に難しくなってきたのです。

ニーズが多様化する中でも消費者の心をつかむ方法の一つは、消費者を生活環境などに応じて分類し、それぞれに適した情報を提供することで消費者の関心にこちらから近づくことです。Webをはじめとしたインターネットは、情報を消費者に提供するだけでなく消費者から情報を受けることもできるため、その双方向性が、生活環境など個々の消費者の属性収集と、それぞれに適した情報の提供を実現しやすくしています。

具体的なWebマーケティングの例として、顧客ごとに専用のWebページを設け、それぞれの顧客の購買履歴に合わせた情報を提供する方法などがあります。最近商品を購入した顧客の画面には「先日は○○のお買い上げありがとうございました」のようなメッセージを表示したり、購入した商品を消費者が使い切る時期を見計らって、同じ商品を案内したりする方法などは、Webマーケティングの典型と言えます。法人向けのサービスを提供している場合は、営業担当者の顔写真やメッセージを掲載してコネクションを保ったり、その顧客向けのディスカウントを案内したりするようなことも効果的でしょう。

またWebマーケティングでは、Webだけでなくメールによる情報提供を組み合わせる方法もあります。顧客に新しい提案を行うタイミングで、Webサイトを更新すると同時に、メールでもその更新内容を配信することで、顧客をWebに呼び込む効果が期待できます。Webマーケティングの実践にはそのシステム構築が必要ですが、システムの機能をインターネット経由で提供する「SaaS」(Software as a Service)形式のWebマーケティングシステムもあります。SaaS形式で提供されるシステムは、多くの場合システムを月極などの料金体系で利用できるため、初期投資の軽減が期待できます。

Webマーケティングのシステムを準備する上で特に注意しなくてはならないのが、個人情報の適切な管理です。Webマーケティングは適切な情報を選んで提供するために顧客の属性を利用する以上、顧客から個人情報を収集し管理しなくてはなりません。個人情報に対する意識が高まる中、その漏洩は顧客と企業双方に大きなダメージを与えます。セキュリティー確保のための、システムの仕組み的な防止策に加えて、担当スタッフへの適切なシステム利用権限付与など、操作ミスなどによる漏洩を防止する工夫も必要でしょう。

どんな顧客にどんな情報を提供するか、そのプランニングとコンテンツ管理も必要になってきます。そのためには、データを分析して意思決定を支援するシステムに加えて、過去対応履歴などを蓄積して検証できるシステムがあると有効になるでしょう。また、WEBマーケティングのツールをつかって、顧客に対してどういう情報を提供しているかを、営業担当者やコールセンターのスタッフと共有することができれば、顧客からの問い合わせへの迅速な対応などリアルの営業活動とのシナジー効果も期待できます。Webマーケティングのシステムを、営業担当者が利用するSFA(Sales Force Automation:営業支援システム)やコールセンターのシステムと連携させた情報共有の仕組みがあれば、こういったことも可能でしょう。

このようにWebマーケティングは情報提供の仕組みだけでなく、そこにさまざまなシステムと組み合わせることで、その導入効果がさらに高まり、可能性が広がることが期待できるでしょう。

シンクライアント

端末に、記憶装置を持たないなど機能が"薄い"(thin)機器を使うことからその名が付けられており、企業や自治体の情報システムのセキュリティー強化や、運用までを含めたトータルコストの低減を目的に導入が広がりつつあります。

シンクライアントのシステムがセキュリティー強化に有効な理由のひとつは、データはサーバー上に保存され、エンドユーザーが使う端末の記憶装置に残すことが出来ないことがあげられます。エンドユーザーが端末のハードディスクにサーバーのデータをコピーし、各端末でデータ処理を行うというシステムでは、サーバーのデータを少なくとも一時的にはハードディスクに保存することになります。その場合、端末が外部からの不正アクセスを受けたり、端末またはハードディスクそのものが盗難に遭ったりすると、データが外部に流出してしまう恐れがあります。特に企業や自治体で個人情報等の機密情報を扱う業務では、データの外部流出は絶対に許されないことでしょう。

シンクライアントのシステムでは、データ処理はサーバーが行い、ユーザーはサーバーが処理したデータを端末上で参照するものがほとんどです。どのような処理を行うかはユーザーが端末から指示をしますが、データの保存と処理は常にユーザーの手元の端末ではなくサーバーに一元化されています。この点が端末にハードディスクを持たせたシステムとの大きな違いの一つと言えます。

システムの初期投資とその後の運用管理までを含めた総所有コスト、いわゆるTCO(Total Cost of Ownership)の削減にも、シンクライアントは効果的とされています。ハードディスクを持つ端末では、データ処理のためのアプリケーションをそれぞれに搭載する必要があり、そのインストール作業やバージョンアップ時にも大きな負担がかかることがあります。その際にも、全端末が正しくインストールやバージョンアップを行ったかを確認しなくては、組織内の共有文書を開くことができないなどのトラブルも起こりえます。またソフトの開発元からセキュリティー強化のための修正ソフト(パッチ)が配布されたときには、それぞれの端末で迅速に適用を行わないと、同一のネットワーク等でつながる他の端末も、思わぬ被害を受けるかもしれません。

一方シンクライアントのシステムでは、基本的にシステム部門が管理するサーバーにしかアプリケーションはありません。アプリケーションのインストールやバージョンアップなどはサーバーだけで済むため、運用管理にかかるコストを大幅に削減できる可能性があるわけです。

シンクライアントのシステムは環境貢献の面でも注目されています。一般的にコンピューターの中で特に電力を消費しているのは高速回転を続けるハードディスクですが、シンクライアントの端末はそのハードディスクを持ちません。また最近のデータセンターでは電力変換ロスを低減する直流給電システムなど、一般のオフィスビルでは導入が難しい省電力対策が進められているところが多いため、サーバーをデータセンターに置くような構成をとり、システムの物理的な稼働を端末からサーバーに集約することで、システム全体での電力消費も期待できます。加えてデータセンターでは、耐震設備やバックアップ対策も充実しているため、地震などでオフィスが被害を受けても端末を入れ替えればすぐに業務に取り掛かることができるため、シンクライアントはBCP(事業継続計画)の観点からも有効であると考えることもできます。

NGN(次世代ネットワーク)とクラウド

NGN(次世代ネットワーク)とクラウドは非常に親和性が高いものといえます。
セキュリティー対策だけを考えてみてもその優位性は明らかです。
ハッキングやなりすましといったインターネット経由の攻撃に対して最も有効なのは「インターネットに接続しない」という防衛策です。
つまり攻撃する側から見えないシステムになっていれば、システムがクラウド化していても攻撃を受ける可能性が著しく低下します。

Intel が「Atom」を 14nm へ微細化、「ムーアの法則を超える速度」

米国 Intel は台湾で開幕したパソコン関係の展示会「COMPUTEX TAIPEI」で2011年5月31日、ネットブック/タブレット端末/モバイル デバイス向け SoC のベースとなる「Atom」プロセッサについて、開発/製品提供ロードマップを発表した。今後3年間で製造プロセス ルールを、次版「Cedar Trail」(開発コード名)の 32nm から 22nm、14nm へと「ムーアの法則を超える速度」(Intel)で段階的に微細化する計画という。

Cedar Trail は、発熱を抑えて冷却ファンを不要とする超薄型ネットブック用プラットフォーム。バッテリ駆動時間は10時間を超え、数週間スタンバイ状態を維持できるという。対応 OS は、米国 Microsoft の Windows のほか、米国 Google の Chrome OS や、Intel がフィンランド Nokia と共同開発してきた MeeGo など。

Intel は、Cedar Trail ベースのコンセプト デザイン「Keeley Lake」を紹介した。厚さ 17mm から 20mm のデバイスを想定しており、キーボードとマルチタッチ対応タッチパネルの両方で操作可能。

Intelが「Atom」を3年で 14nm へ微細化、「ムーアの法則を超える速度」

同じく 32nm プロセスで製造するスマートフォン/タブレット端末向けプラットフォーム「Medfield」(開発コード名)は、厚さ 9mm 未満、重さ 1.5ポンド(約 680g)未満のデバイスが実現できるという。対応 OS は、Windows と MeeGo、Google の Android 3.0(開発コード名「Honeycomb」)など。2011年後半に量産を開始し、2012年上半期に搭載デバイスが登場すると見込む。

また Intel は、10種類以上の「Atom Z670」搭載タブレット端末が同日より販売されることを明らかにした。

さらには、MeeGo ベースのネットブック「Acer Aspire One Happy 2」「Asus Eee PC X101」「Samsung N100」「Lenovo IdeaPad S100」を発表した。動作周波数 1.33GHz の新型シングルコア プロセッサ「Atom N435」を搭載している。

Gメールにサイバー攻撃 中国起点とグーグル

 全世界で2億人の利用者を持つとされる米インターネット大手グーグルによる電子メールサービス「Gメール」に対し、中国からサイバー攻撃が行なわれたことがわかり、グーグルが1日、同社ブログで発表した。

 攻撃の結果、米政府高官や中国の政治活動家、韓国を中心にした複数のアジアの国の高官らを含む数百人の個人情報を盗まれるなどの被害が発生したという。

 攻撃の起点は中国・山東省の済南で、盗んだパスワードを使用してメールを転送し、内容を監視していたとみられる。

 グーグルのシステムを破壊し内部に入り込んだわけではなく、偽のウェブサイトに誘導して個人情報を奪う「フィッシング」や、情報を盗むための悪意のあるソフト(マルウエア)をパソコンに忍び込ませる手口が使われたとみられる。

 グーグルは昨年1月にも、中国から大規模なサイバー攻撃を受けていたことを明らかにし、その後同社の中国進出戦略を修正するなどの事態に発展した経緯がある。

グーグルの「+1」ボタン、ウェブサイトで実装可能に

 Googleは米国時間6月1日、「+1」ボタンをウェブ全体に公開した。「Buzz」ではFacebookやTwitterを上回ることができなかった同社だが、今度は自社が提供するウェブサービスにソーシャルネットワーク機能を構築するという、より堅実な戦略に出た。

 +1ボタンは、あるウェブサイトについて、ユーザーが自分のソーシャルサークルに推薦する機能である。ウェブサイト運営者は今回、自分のサイトに+1ボタンを追加できるようになった。Googleで+1担当プログラマーを務めるEvan Gilbert氏はブログ投稿で、Googleに加えて、Washington Post、O'Reilly、Best Buyといったパートナー企業がすでにこの機能を追加していると述べた。

 「1回クリックするだけで、レインコートやニュース記事、お気に入りのSF映画を、友人や知人や世界中の人々に勧めることができる。あなたとつながりのある人が次に検索するときには、あなたの+1が直接その人の検索結果に表示され、その人は最も必要なときにあなたのおすすめ情報を得ることができる」とGilbert氏は述べている。

 +1ボタンを使用するGoogleサイトは、Android Market、Blogger、Product Search、YouTubeなどであると同社は述べた。また同社は、+1ボタンをページに追加するためのウェブデベロッパーツールも提供している。

 このボタンはGoogleにとっては新しいものかもしれないが、インターネットにおいては新しいものではない。Facebookの「いいね!」ボタンが既に定番として存在する。

 しかし+1ボタンは、Googleの検索結果と連動する。それが、ウェブ開発者らにこのボタンの追加を促す強力な要因になるかもしれない。+1ボタンのクリック回数が多いサイトは、検索結果で高く評価される可能性がある。また、仮にユーザーが実際にわざわざ自分のソーシャルネットワークをGoogleサービスで特定できるようにするとすれば、+1ボタンは友人らの検索結果に影響を与える可能性がある。

コンピューター・システムのコスト削減に、クラウド

固定観念を捨てて従来のスタイルを変えることで、それまでよりも多くの価値を提供する可能性をもつものに情報システムがあります。企業として生き残るための商品開発を、素早くできるだけ低コストで行うために、情報システムの新しい利用の仕方が登場しています。
従来、情報システムによる合理化や効率化は「我が社のコンピューター・システムは云々」といったように、インフラの設備的な充実にこだわり、相当の投資をしてきました。そうして構築された独自のコンピューター・システムは、果たしてどうなったでしょうか。
たとえば、新しい機能を提供するために大きな追加投資が必要だったり、企業の合併などの際には、異なるシステムの統合がうまくいかずに苦しんだりという状況に陥ることも少なくありません。
商品には他にはない特長やこだわりがなければ生き残れませんが、ビジネス基盤としてのインフラは汎用志向をもったほうが良いと私は思います。特に、中堅企業においては、限られた資金を独自システムの構築に使うよりも、本格的なサービスが登場してきた「クラウド」を活用すべきではないかと思います。
開発期間も先行投資も必要なく、使いやすいシステムがすぐに利用できるわけですから、合理化ができ、企業としての競争力も上がります。コスト削減のために人件費の削減を真っ先に考える企業が多いようですが、私はコンピューターにかかるコストを見直し、クラウドなどの新しい効率化の方法を検討することを一番に優先すべきではないかと思います。

Nokia、第3のエコシステム

Windows Phoneをスマートフォン事業の主軸とする戦略を発表したNokiaに、コミュニティは複雑な反応を示している。iPhone、Androidに続く「第3のエコシステム」の一翼をNokiaは担えるのか——。

 MicrosoftのWindows Phoneをスマートフォンの主軸とする戦略を2月に表明したNokia——。その後、戦略推進に向けた取り組みを相次いで発表した。まずは4月21日、Microsoftと共同で、NokiaのWindows Phone採用に関する提携の契約締結を発表。そして同27日、Symbian開発をAccentureに移す計画を打ち出した。2012年の発売がアナウンスされているNokia製Windows Phoneだが、両者は取り組みを加速させているようにも見え、登場はさらに早まるかもしれない。

 世界的にはシェアが4割に達した時期もあるNokiaだが、2007年に登場したAppleの「iPhone」に端を発するスマートフォンの新しい波により、状況は一変した。Nokiaが4月中旬に発表した決算によると、推定シェアは29%にまで下がっている。Nokiaは何を誤ったのか? 課題はスマートフォンだけなのか?

 iPhoneとAndroidという脅威に対してNokiaが打ち出したのは、追われる立場としての「守りの戦略」と、追う立場としての「攻めの戦略」という2軸だったが、そのどちらも状況の好転には結びつかなかった。

 まず、守りの戦略としては、これまでスマートフォンで独占的OSの地位を堅守してきたSymbian OSがある。Symbian OSは元々、Nokiaをはじめ1990年代後半に優勢だった携帯電話メーカーが共同出資したSymbianが開発し、ライセンス提供するOSだった。Nokiaは2008年6月にSymbianを買収し、オープンソース団体として発足させる決断をする。

 こうして誕生したSymbian Foundationは2010年2月にSymbian OSをオープンソースにしたが、結果的にはこれまでSymbian端末を開発していたSony Ericsson、SamsungらがSymbianからAndroidに乗り換え、求心力を失ってしまった。

 この背景には、時代遅れといわれたSymbianの技術革新がなかなか進まなかったこともあるが、開発者やユーザーに訴求するマーケティング不足もありそうだ。メーカーにしてみれば、(非営利団体とはいえ)ライバルNokiaとのつながりが深いプラットフォームを採用することへの抵抗もあったかもしれない。いずれにせよ、開発者、メーカー、ユーザーを囲う魅力的なエコシステムを構築できなかった。

 2010年9月にMicrosoftから迎えた新CEO、スティーブン・エロップ(Stephen Elop)氏は同年11月、Symbian Foundationを解体し、SymbianをNokiaの管理下に置くという方針を発表。事実上、オープンソースとしてのSymbianは失敗となった。

 攻めの戦略は、「MeeGo」だ。MeeGoは、これまで「Maemo」として開発を進めてきたLinuxベースのOSを、米Intelの「Moblin」とマージさせるというもの。2010年2月のMobile World Congressで、Nokiaのデバイス担当トップであるカイ・オイスタモ(Kai Oistamo)氏とIntelの上級副社長兼ソフトウェア&サービス事業部長、レネー・ジェームズ(Renee James)氏が大々的に発表した。

 だが、発足から1年が経過してもNokiaはMeeGoスマートフォンを発表せず、Nokia以外の携帯電話メーカーの採用も取り付けていない。Nokia社内ではMeeGo端末の開発が進んでおり、開発チームも会心の作を目指して情熱を注いでいたようだが、成熟度の低いMeeGoをメインプラットフォームにすることはリスクを伴う。実際、前身となるMaemoを搭載した初のスマートフォン「Nokia N900」の販売台数は、発売後5カ月で10万台に達しなかったともいわれており、MeeGoも二の舞になりかねない。これまでのしがらみをもたないエロップ氏は、Windows Phoneを採用するリスクの方が低いと踏んだのだろう。

 Windows Phone採用についてエロップ氏は、スマートフォン事業が「エコシステムの戦いになった」と説明した。SymbianやMeeGoではAndroidとiPhoneのエコシステムに対抗できないと判断したことになる。新戦略の下、Symbianは今後も継続するが長期的にはWindows Phoneに塗り替えていき、MeeGoは実験的な取り組みという位置づけとなった。Symbianは、Accentureに開発を移すことが発表されている。MeeGo端末は2011年内に1台発表するという。

 NokiaとMicrosoftの提携発表直後、Symbian OSのUIであるS60の担当技術担当副社長を務めていたデビッド・リバス(David Rivas)氏は、「Microsoftとの提携により、共同でイノベーションを起こし、(iPhoneとAndroidに次ぐ)"3つ目"のエコシステムを作る」と説明した。

 Nokiaは、ユーザーがある程度の時期までSymbianを使い、その後Windows Phoneに移行するというシナリオを描くが、Windows Phoneが主力となるまでの長い移行期間の舵取りは難しいところだ。Nokiaのエロップ社長は5月末、中国で開催したNokia Communicationで、「Symbianへの投資は継続している。まさに、その最中にある」と述べ、Symbianへのコミットを示した。Nokiaは4月25日に最新の「Symbian Anna」を搭載した「Nokia E6」「Nokia X7」を発表しているが、Symbian端末は2012年まで新機種を投入すると予想されている。エロップ氏は、サポートは2016年まで継続すると述べている。

 Windows Phone採用発表の直後、Intelのジェームズ氏は2011年のMobile World Congressで、IntelとしてMeeGoプロジェクトを継続する決意を語りながらも、「(Nokiaの発表に)失望した」と驚きを隠せない様子だった。開発者やユーザーなどのNokiaコミュニティもまた、動揺と反発をあらわにした。

 Nokiaでアプリ開発フレームワーク「Qt」のマーケティングを統括していたダニエル・キールベルグ(Daniel Kihlberg)氏は、「Qtユーザーには大きなLinuxコミュニティがあり、失望の声があることは確か」と認める。QtはSymbianとMeeGoの両方に開発できるツールと位置づけられ、2011年11月に開催された「MeeGo Conference」などで開発者への積極的なアピールを開始したばかりだった。Qtは、新戦略で主役となるWindows Phoneには対応しておらず、Windows PhoneではMicrosoftの開発ツールを利用することになる。

Twitter、検索結果での写真・動画表示機能と写真投稿機能を発表

TwitterがTwitpicなどを使わずにツイートに画像を添付する機能と、検索結果に画像・動画を表示させる機能を発表した。

Twitter.comでの検索結果と「トレンド」のクリック結果ページに、関連する画像と動画の一覧が表示されるようになった。検索すると、右カラムに「外部コンテンツを表示」というボタンが表示され、これをクリックすると画像と動画の一覧が表示される。それぞれスクロールして閲覧できる。

また、TwitterはMozillaと提携し、Firefoxのアドレスバー(Awesome Bar)でTwitterのハッシュタグやアカウントを検索できるアドオンを公開した。Windows、Mac、Linux、Android向けの最新版のFirefoxで利用できる。

このアドオンをインストールすると、アドレスバーに「#キーワード」「@アカウント名」と入力することで、Twitterの検索結果を表示できる。

Twitter.comの投稿欄にカメラのアイコンが追加され、ツイートに画像を添付できるようになる。従来はTwitpicやYfrogなどのサードパーティーアプリを利用する必要があったが、これで直接画像できるようになる。この機能は向こう数週間のうちに利用できるようになる。

デスクトップ版だけでなく、モバイル版の公式Twitterアプリでも同機能が使えるようになる。また、スマートフォンを持っていないユーザーのために、MMS経由で写真を投稿できるようにするよう世界のモバイルキャリアと協力しているという。

Twitterはこの機能を、写真共有サービスの米Photobucketとの提携で実現したという。ツイートに添付した画像は、Photobucketがホスティングする。

SkypeとMicrosoftの合併は企業に何をもたらすのか?

 ネット通販を手掛けるePromos.comのインフラマネジャー、デービッド・ワグナー氏は、デスクトップビデオ会議を「Skype Business Version」で標準化し、レガシー電話システムをSkypeに接続するためのゲートウェイ「VoSKY」を導入した。同社はスモールビジネスだが、Skypeがスケールアップして大企業の需要に応えようとする可能性もあるとワグナー氏は危惧する。

 もしうまくいけば、MicrosoftとSkypeの合併によって自分も気が変わるかもしれないとワグナー氏は言う。しかし今回の買収はむしろ、Microsoftが(Googleに対抗する意味も含めて)コンシューマーを意識した動きであることは同氏も認識しており、Skype法人事業部のSkype Enterpriseが存続されるかどうか不安を抱いているという。

 「Microsoftはエンタープライズに長けており、一方Skypeの弱点はエンタープライズにある。結局のところ、まだどうなるかは分からないが、これはエンタープライズにおけるSkypeの終息にもなり得るし、必要としていた助力にもなり得る」とワグナー氏。同氏はOCSもLyncも導入していない。

 Wainhouse Researchのシニアパートナー、アンドルー・デイビス氏は、Microsoftが後ろ盾に付けばUC専門家の間でエンタープライズSkypeの採用に向けた信頼感が高まるかもしれないと予想する。ただしこれはLyncとの適切な連係に成功することが前提だ。

 デイビス氏は言う。「Skypeは常に、反抗的な態度あるいは性格を持っていた。創業当時に言った言葉が『さあ、フリーボイスを使おう! きっと世界中のキャリアがカンカンになるはず』だった。しかしMicrosoftは違う。彼らは恐らく、企業にとってずっと親しみやすい存在になるだろう」

 一方で、MicrosoftとSkypeの合併には興味をそそられるが、エンタープライズSkypeの今後の普及にそれがどう影響するかは分からないと見るUC専門家もいる。

 ボストン子ども病院でメッセージング/コラボレーションのチームリーダーを務めるスコット・ボルサー氏はOCSサーバをLyncにアップグレードしている。MicrosoftがLyncのデスクトップビデオ会議クライアント改良のためにSkypeの技術をどう使うかは「興味深い」と話す。

 Lyncのデスクトップビデオ会議クライアントでは、マルチポイントコールの中でアクティブな発言者のみを表示する。しかしボルサー氏によれば、ユーザーはセッションの間、参加者全員を見たいと思っている。他社のビデオ会議製品にはこの機能を有効にできるものもあるが、追加投資はしたくないとボルサー氏。そこで同氏はWebおよびビデオ会議用にAdobe Connectを導入した。

 「Lyncのビデオ会議は相当改善の余地がある。Skypeの持つ知的財産がその一助になればと思う」とボルサー氏。

 多くのIT組織にとって、Lyncを通じてSkypeの何百万ものユーザーにアクセスできることは大きなセールスポイントになりそうだ。しかしボルサー氏は、他の病院や研究所とLyncで連携することに興味はないという。

 「ここにもまだSkypeのユーザーはいるが、そうしたユーザーには、われわれが所有しセキュリティもコントロールしているAdobe Connectプラットフォームへの切り替えを促す。もし(MicrosoftがSkypeの技術を使って)Lync製品に付加機能を組み込めば、オンプレミス製品ではなくSaaS(Software as a Service)製品として、Lyncは衰退せずにより良い製品になるだろう」(ボルサー氏)

 Nemertesが数年前に実施した調査では、企業のIT専門家の約40%がセキュリティ上の懸念からSkypeを遮断していることが分かったとラザー氏は指摘する。エンタープライズSkypeにまつわるそうした懸念は解消されたが、ボルサー氏のようにMicrosoftが合併を成功させられるかどうか危惧するUC専門家が増えているという。

 「(企業はSkypeにまつわる)そうした不安をある程度克服してきたと思う。耳にすることが増えたのは、『Microsoftは(買収した企業を)取り込むことに関してあまり評判が良くない』という不安の声だ。それが企業から聞こえてくる最大の懸念であり、Microsoftはこれを払拭しなければならない」とラザー氏は話している。

2011年6月1日水曜日

Qualcommが始動する次世代Snapdragonの戦略

 QualcommはCOMPUTEXでプレスカンファレンスを開催。同社の次世代モバイルCPUコアアーキテクチャ「Krait」搭載チップのサンプル出荷が来週から始まることを明らかにした。Kraitを搭載するのは、モバイル向け統合チップセット「Snapdragon」ファミリの新製品「MSM8960」。MSM8960はデュアルコアCPUにGPUコアや3G/LTEモデムやWiFiなどを統合したSOC(System on a Chip)で、スマートフォンやタブレットをメインターゲットとする。「Kraitテクノロジでは現行のSnapdragonに対して150%高いパフォーマンスを、65〜75%の低電力で提供できる」とQualcommのLuis Pineda氏(SVP, Product Management, Computing & Consumer Products)は語る。

 Qualcommは、現在のSnapdragonファミリのCPUコアとして独自開発の「Scorpion」アーキテクチャ系を使っている。KraitはScorpionの後継となるアーキテクチャで、Scorpion系よりパフォーマンスレンジを1段伸ばす。KraitはScorpionのマイナーチェンジではなく、完全に新しいアーキテクチャだという。

 ARM自体のCPUアーキテクチャと比較すると、ScorpionがARM Cortex-A8/A9対抗で、KraitがARM Cortex-A15対抗という位置づけになる。より詳しく見るとScorpionとCortex-A9がどちらも2命令デコードのOut-of-Order実行スーパースカラパイプライン。Cortex-A15が3命令デコードのOut-of-Order実行スーパースカラで、Kraitは詳細は明かされていないがQualcommによると3命令以上のデコードのOut-of-Order実行スーパースカラだという。

 つまり、Qualcommは、アーキテクチャ的にはARMの次世代コアに相当するチップを、他社に先んじて投入する計画がオンタイムで進行中であることを示したことになる。QualcommはKraitがCortex-A15を凌ぐパフォーマンスと省電力性を持つと説明しており、クアッドコアまでのロードマップを明らかにしている。

 通信チップメーカー最大手のQualcommは、2005年前後から自社独自のアプリケーションプロッッサ(携帯機器の汎用CPUコア)の開発をスタートさせた。Qualcommは2007年の「Microprocessor Forum」で、CPUコア開発の理由について、将来の携帯デバイスが高パフォーマンスのコンピューティング機器に進化すると判断したためだと説明している。その時は、2008年以降に2000 DMIPS(Dhrystone Million Instructions per Second)のパフォーマンスを500mW以下で実現する必要があると説明した。

 しかし、2005年以前のARM系CPUの性能レンジは数百DMIPSであり、目標に遠かった。そのため、Qualcommは自社による2000 DMIPSレンジのARMコアの開発に乗り出した。それがScorpionアーキテクチャであり、Scorpionを搭載したSnapdragon系チップセットだった。Qualcommは2007年のMicroprocessor Forumでチップアーキテクチャを発表した後、2008年にサンプルチップをリリース、2009年からは搭載端末が登場した。

 もっとも、ARM自身もCortex-Aファミリの開発を進めており、Scorpion系とオーバーラップしてCortex-A8に続きCortex-A9をリリースしている。現状では、ハイパフォーマンスのARMコアは、この2系統のアーキテクチャで占められている。

 ちなみに、ほぼ同時期にIntelもローパワーCPU「LPIA」の開発をスタートさせている。LPIAは後にAtomとブランディングされる。AMDも同様で、この時期に各社が一斉にローパワーでハイパフォーマンスのCPUコアの開発を始めている。

 x86系とARM系がお互いを意識しながら、同じレンジのCPUの開発競争に入り、その中でARM系で先陣を切ったのがQualcommだった。ある業界関係者によると、Intelが2007年頃にAtomの説明にベンダーを回った時は、Scorpionに対してどれだけの性能アドバンテージがあるかを説明して行なったという。IntelがAtom対Scorpionという図式を予想していたことがわかる。

 ハイパフォーマンスARMコアの開発を早期から進めたQualcommは、スマートフォン競争の緒戦では成功を収める。4月に行なわれたモバイルCPUのカンファレンス「Linley Tech Mobile Conference」での、Linley Gwennap氏(Principal Analyst, The Linley Group)によるマーケットオーバービューでは、iPhoneにARMコアのSoCを提供するSamsungと並んで、SnapdragonのQualcommが急成長したことが示された。

 特に、Snapdragonが目立ったのはAndroidデバイスだ。Snapdragonは、Google自身の最初のAndroidスマートフォンである「Nexus One」や、ソニー・エリクソンのAndroidスマートフォン「Xperia」に採用された。当初は、Android端末は、ほぼイコールSnapdragon端末だった。

 しかし、当初の65nm版Snapdragon(最高1GHz)のパフォーマンスには、ソフトウェアデベロッパからは不足だという声も多く挙がった。スマートフォンの進化によって、求められるパフォーマンスレンジが急激に上がってしまったためだ。ある携帯機器系のソフトウェアデベロッパは「1GHz CPUと聞いて期待した性能とは全然違った。PC向けCPUと同じ感覚では扱えないとわかった」と語っていた。

 こうした状況で、他社の動きも活発化した。NVIDIAがデュアルコアARM Cortex-A9のTegra 2を投入、クアッドコアのTegra 3(Kal-El)もサンプル出荷、Samsungが製造するApple CPUもA5でデュアルコアCortex-A9になり、他のベンダーが一気によりハイパフォーマンスなARMソリューションを投入し始めた。その一方で、IntelのAtom系のタブレット以下の市場への浸透が遅れた。そのため、構図はIntel対Qualcommではなく、ARM陣営の各社が入り乱れた乱戦状態になった。

 高まるパフォーマンス要求と競合の急速な展開で、Qualcommもパフォーマンスレンジを引き上げた製品を矢継ぎ早に投入しなければならなくなった。そこで、ScorpionコアをデュアルにしたSnapdragonを投入、さらに、次世代コアKraitを急ぎ投入しつつある。Kraitは、動作周波数を引き上げるだけでなく、クロック当たりのパフォーマンスも上げる。それによって、高まるスマートフォン&タブレットでの性能要求に応えて行く計画だ。

 Snapdragonは4世代に分けられる。第1世代が65nmプロセスのシングルコアScorpionで最高1GHz、第2世代が45nmプロセスのシングルコアScorpionで最高1.4GHz、第3世代が45nmプロセスのデュアルコアScorpionで最高1.5GHz、そしてこれから登場する第4世代が28nmプロセスのシングルからクアッドのKraitコアで現在のターゲットは1.7GHzだ。GPUコアは旧AMDの携帯電話向けGPUコアのIPを発展させたAdrenoアーキテクチャで、第1〜3世代までのSnapdragonがAdreno 2xx世代、第4世代はデュアルコアKraitがAdreno 2xx世代、クアッドコアとシングルコアがAdreno 3xx世代のコアを搭載する。

 1〜3世代のScorpionコアはSnapdragonの世代によって拡張はされているが、基本アーキテクチャは同じだと言う。2命令発行のスーパースカラパイプラインでOut-of-Order実行。パイプライン段数は65nm版は整数パイプで10〜12段で、65nm時のステージクリティカルパスディレイのターゲットは24 FO4(Fanout-Of-4)。Qualcommでは、この程度のFO4が、消費電力と周波数のスィートスポットだと説明していた。パフォーマンス当たりの電力は65nm時に0.14mW/DMIPとなっている。

 CPUの命令セットアーキテクチャは、ARMのCortex-Aシリーズと同じARM v7命令セット。ARMのSIMD(Single Instruction, Multiple Data)拡張命令であるNEONをサポートする128-bit幅のSIMD演算ユニット「VeNum」を実装する。システム全体では、CPUコア以外にGPUコアのAdreno、ビデオエンジン、オーディオエンジンに加え、ネットワークモデム部も備える。完全な通信デバイス向けSOCとなっている。

 以上の基本ユニットに加え、デュアルコアScorpion版のSnapdragonでは、2個のScorpionコアをそれぞれ独立した動作周波数と電圧で駆動できる非同期型の電力制御を行なっている。コア毎に、周波数だけでなく電圧も制御するため、2つのコアの負荷にばらつきがある場合も電力を最適化できる。

 SnapdragonのGPUコアのAdrenoは、PC向けGPUと同様のユニファイドシェーダアーキテクチャで、頂点とピクセルのどちらのプロセッシングも同じシェーダプロセッサで行なう。ラスタライザやピクセルラスタオペレーションなどは固定ユニットで備える。APIではOpenGL ES 2.0などに対応する。Qualcommではツールとして「Adreno Profiler」などを提供している。Qualcommは現行のAdreno 2xx世代でSpherical HarmonicsなどのGPUにとって重い処理を行なわせるデモをGDC(Game Developers Conference)で公開している。

 こうした第1〜3世代までのSnapdragonを、第4世代ではどのように拡張するのか。まず、Kraitでは、動作周波数を引き上げ、アーキテクチャ上では最高2.5GHzをターゲットとする(製品計画では1.7GHzとなっている)。また、動作周波数を上げるだけでなく、サイクル当たりの命令実行も拡張する。QualcommのLuis Pineda氏(SVP, Product Management,Computing & Consumer Products)は、命令発行数を増やすのかという質問に対して「そうだ。より多くのIPC(Instruction-per-Clock)を達成し、周波数当たりのドライストーンMIPS値を向上させる」と答えている。

 ARM Cortex-A15も命令デコードを3命令にまで拡張しIPCを引き上げ、同時に動作周波数を上げる。しかし、Pineda氏は「われわれのKraitはCortex-A15を上回るパフォーマンスになる。来週のサンプルチップでそれが証明されるだろう」と語る。Qualcommの試算では、KraitコアはCortex-A15に対して同じプロセス技術で23%高いパフォーマンスを達成できると言う。Cortex-A9に対しては80%以上のパフォーマンスアップを狙っているという。

 Kraitコアの製品で最初に登場するデュアルコアのMSM8960は、モデム統合のワンチップソリューションとなっている。「MSM8960はハイパフォーマンスであるだけでなく、我々の4G LTEモデムを統合する」とPineda氏は言う。こうした点が、非通信チップから参入して来たベンダーに対する利点になると見ている。デュアルコアのMSM8960が統合するGPUコアはAdreno 225で、基本アーキテクチャは同じだが133トライアングル/secの性能になるという。

 Kraitではシングルコアとデュアルコアだけでなく、クアッドコアも用意することで広いパフォーマンスレンジをカバーする。Kraitシングルコアは「MSM8930」で、こちらもLTEモデムを統合したシングルチップソリューションになる。デュアルコアのMSM8960との大きな違いは、GPUコアが次世代のAdreno 305になること。ただし、こちらもGPUコアの概要は明らかにされていない。

 Kraitクアッドコアは「APQ8064」。型番が異なるのは、3G/4Gネットワークモデムが別チップになっているためだ。コンピューティングによりフォーカスした製品となっている。

 APQ8064では4個のコアは、それぞれ独立した周波数と電圧での動作が可能。GPUコアはAdreno 320で、このコアはクアッド構成となっている。WANネットワークは備えていないが、Wi-Fi、GPS、Bluetoothといった無線機能は搭載、またPCI Expressインターフェイスなども備える。

 シングルコアMSM8930とクアッドコアAPQ8064は、2012年の早期にサンプルが提供される予定で、COMPUTEXでも計画通りに進んでるとアナウンスされた。

 COMPUTEXでも激戦区はすでにPCではなく携帯デバイスに移っている。その中で、当初のアドバンテージを維持するため、QualcommはSnapdragonの強化を急いでいる。

デル、仮想化ストレージアーキテクチャ「Dell Fluid Data」

デルは5月31日、同社の仮想化ストレージ戦略に関する記者説明会を開催し、仮想化ストレージアーキテクチャ「Dell Fluid Data」を紹介した。

米デル 日本アジア太平洋地域 インテリジェントデータ管理 ディレクターのエイドリアン・ジョンソン氏は、「われわれはストレージの戦略として、『インテリジェントデータ管理』を打ち出しているが、それを実現するアーキテクチャが『Dell Fluid Data』だ。インテリジェントデータ管理戦略によって、ストレージに要する複雑性を提言し、コストを削減することが可能になる」と説明した。「Dell Fluid Dataとは、適切なデータを適切なストレージに適正なコストで管理するためのアーキテクチャ。現在ストレージに保存されているデータのうち、70%はアクセスが少ない『静的データ』となっているが、すべてのデータをSANやNASといった1次ストレージに保存するのは非効率」とした。

「Dell Fluid Dataアーキクテチャの発表は、戦略に基づく筋の通ったストレージソリューションを打ち出したという意義がある」と語った。「Fluidには、『1つのところにとどまらない』という意味がある。われわれは、統合、自動化、弾力性というキーワードの下、データの性質に応じた管理を実現していく。Fluid Dataアーキクテチャでは、『スケーラブルなファイルシステム』、『重複排除』、『データ圧縮』、『仮想化』」という4つのテクノロジーがカギとなる」と示した。

Fluid Dataアーキクテチャは、これまで同社が買収したEqualLogic、Exanet、Ocarina Networks、Compellentという企業の製品が基盤となる。Fluid Dataアーキクテチャに基づく製品は、「ストレージの仮想化と統合」「アプリケーションの統合と最適化」「高度なデータ保護とリカバリ」「データの階層化/アーカイブ/コンプライアンス」「分散型企業の実現」といったユーザーの課題を解決する。

同社の有力なパートナーでであるヴイエムウェア 代表取締役社長の三木泰雄氏も説明を行った。デルとヴイエムウェアは戦略パートナーとして、「仮想化による省エネ対策」「効率的な災害対策ソリューション」「事業継続計画における在宅勤務の支援」などによって、社会に貢献している。

三木氏は、「デルはヴイエムウェアにとって、世界ナンバーワンのOEMパートナーであり、VMware認証サーバ、ストレージソリューションの認証の数もOEMの中で一番。また、vSphereを使ってプライベートクラウドを構築しているユーザーでもある」と述べた。

両社によるインテグレーションの価値としては、「vCenterによってデル製品の管理も可能な点」、「vStorage API for Integration(VAAI)」、「災害対策」が挙げられた。vCenter Site Recovery Managerと対応ストレージを組み合わせることで、仮想化を生かした資源とコストの効率が良い災害対策が実現されるという。

「仮想化」とは

「仮想化」とは、例えば1台のサーバーをあたかも複数台のサーバーのように機能させたり、逆に、複数のハードディスクを1台のハードディスクのように扱って大容量化したりする技術のことです。

バーチャルという意味を表す「仮想」は、実在しないものを指すことが多いキーワードですが、ITで用いられる場合にはリソースを論理的に分割あるいは結合・多重化する技術の総称をいいます。

企業や団体のIT基盤として注目を浴びているクラウドコンピューティング(以下、クラウド)はこの仮想化技術によって設計され、クラウドと仮想化は切っても切れない関係にあります。

「仮想化」の考え方自体は古くからあり、個人ユーザーレベルでもハードディスクの一部をメモリーの代わりに使用したり、パーティションを設けて分割し仮想的な複数のディスクとして使用したりといった用途がありました。また複数のディスクを一つのディスクに見せるRAID技術も、仮想化技術の一端といえるでしょう。

もともと仮想化技術は、メモリーやハードディスク、またそれらの複合製品であるサーバーといったハードウェアが高価であった時代に、限られたリソースをできるだけ有効活用するために使われてきました。

しかし、ハードウェアの価格が下がってくると、次第にスペック向上のために導入されるようになりました。従来は、一つのサーバーに載せられるのは一つのOSだけで、担う業務の種類も限定されていたのに対し、サーバーを仮想化すると、一つのサーバーに複数のOSを仮想的に並列稼働させることができるようになり、効率的な運用が可能になります。

また、データやアプリケーションの領域も、ストレージの仮想化技術によって柔軟に拡大・縮小が可能になり、運用の稼働までもが軽減されます。

クラウド時代の製品・サービス選び

 クラウドコンピューティングを利用するユーザーにとって、そのコンピュータ資源は雲の中に隠されている。どこにあって、どのような機器が用いられていて、どう運用されているのか——ユーザーは意識する必要がない。

 しかし、いざわれわれがクラウドサービスを利用する際、完全なブラックボックスの中からサービスを選定するわけにはいかない。やはり、ある程度は「雲の中がどうなっているのか」を把握しておく必要がある。企業での利用ともなれば、なおさらだ。

 IaaS(Infrastructure as a Service)といえば、Amazon EC2が最も有名だ。Amazon.co.jpのサーバが最も高負荷になるのはクリスマスシーズンである。インフラはピーク時を想定して構築するが、それ以外のシーズンは余剰リソースとなってしまう。それらの余剰リソースを安価で一般に開放したことが、Amazon EC2の始まりだった。

 クラウドというと、どうしてもAmazonやSalesforce.comなど、米国の企業に注目が集まりがちだが、これら海外企業は当然ながらデータセンターを海外に保有している。「データの所在を意識する必要がない」というクラウドのメリットは、「データがどこの国に保存されているのかが分からない」というデメリットに転じてしまう。保存されているデータの取り扱いは、それが存在する国の法体系に依存するからだ。

 オフィスのPCと自宅のPCは「それぞれ環境が異なり、OS設定も別々」がこれまでの定石だった。出張した先でPCを借りても、普段自分が使っているPCと設定が異なっていて慣れるのに苦労する、という経験を持つ人は多いはずだ。

 だが、デスクトップの仮想化は、この煩雑さを無効にする。ユーザーがどこで作業しようとも、どのPCを使おうと、サーバにさえ接続できれば、常に同じデスクトップを利用できる。

 デスクトップ環境やデータはすべてサーバに存在しており、サーバで稼働する自分のデスクトップ環境をPCで利用する。そのため、従来のようにデータが各個人の端末に分散されない。デスクトップの仮想化は、セキュリティ面でもメリットの多い技術である。

 ここで個人的に興味深かったのは、ウイルス対策についてだ。

 多くの企業では、社内ネットワークでのグループポリシーなどに従って「毎週火曜日の昼休み」というように、定期的にウイルススキャンを実行する。私の職場でも同様のパターンでウイルススキャンを実行するが、いつも昼休みの時間内に処理が終わらない。午後の業務時間のうち1時間ほどはスキャンが動き続けるため、仕事に支障をきたすほどパフォーマンスが劣化する。

 デスクトップを仮想化すれば、それぞれのデスクトップはすべてサーバに保有されているから、深夜時間帯に一括でスキャンを実行できるのではないかと考えていた。

 ところが、話はそう単純ではないらしい。サーバ上に存在する40〜50台の仮想マシンに一斉にウイルススキャンしようものなら、深刻なパフォーマンス劣化が発生するというのである。これについてはいくつかの負荷分散のアプローチが試みられているようで、今後の発展に大いに期待したいところだ。

 クラウドを利用するうえで最も気になるのが、セキュリティだろう。

 つい最近も大規模な情報漏えい事故が世間をにぎわせており、セキュリティについての関心は高まっていると思われる。

 先日の大規模情報漏えいによって自分の個人情報が流出してしまった可能性がある。クレジットカードの情報も登録してあったため、実際の被害はまだ受けていないものの、精神的なダメージは非常に大きかった。

 こういった実例が存在する以上、「クラウドのセキュリティが絶対に安全である」とはとてもではないが言い切れない。だからこそ事前に、クラウド利用によって生じるリスクと、セキュリティについての情報を集めておくことが不可欠だろう。

 特に、今の日本は震災が頻発するため、人為的なセキュリティ事故にとどまらず、災害下におけるデータ保全についても注目度が高い。

 サーバ機やセキュリティ対策、仮想化など、雲の中は最新技術であふれていた。

 遠くから見れば穏やかに浮かんでいるように見える雲も、中を見れば気流が激しく動き、膨張し、進化している。少しのぞきこんだだけでも、非常にエキサイティングな世界を垣間見れる。

 「雲の中」に興味を持つエンジニアとして、その激しくも先進的な世界に、これからも注目せずにはいられない。

Dellのクラウド戦略

クラウドサービスと製品を着実に強化してきた米Dell。彼らのクラウド戦略はユーザー企業に受け入れられるだろうか?

 企業のIT担当者はクラウドコンピューティング関連のベンダーを探したとき、そこに意外な企業の名前を見つけるかもしれない。コンピュータハードウェアメーカーの米Dellは、クラウド市場の急速な発展と企業からの需要増大に対応すべく、自社の企業イメージと製品ラインを大幅に刷新する考えだ。

 Dellによると、同社は2011年、オンデマンドアプリケーションプラットフォーム(具体的には自社のデータセンターで運用する米MicrosoftのAzure)に加え、企業ユーザー向けにVMwareベースのクラウドインフラを提供する予定だ。これに先立ち、同社は新たなクラウド構想のキックオフとして、4月初めに仮想化技術とプライベートクラウドの配備用として構成済みのハードウェアアプライアンス製品シリーズを発表した。

 同社の新しいIaaS(Infrastructure as a Service)製品の詳細は不明だが、米Amazon、米Rackspace、米GoGridなどの企業が提供する(誰でもクレジットカードで利用できるような)小口ユーザー向けのサービスではなく、サブスクリプションモデルが基本となり、Dellのデータセンターで運用される見込みだ。

 同社は、AzureおよびVMwareをベースとするクラウドサービスを提供するデータセンターを新たに10カ所開設するという壮大な計画を立てているが、この取り組みがユーザーに支持されるかどうかは不明だ。

クラウドの時流に乗ろうとするDell

 「これが独自の方向性を持った取り組みなのかどうか、はっきりしない」と話すのは、米調査会社Forrester Researchのアナリスト、ジェームズ・スタテン氏だ。Dellはクラウドコンピューティングを正しく理解していると同氏は考えている。かなり以前から「Dell Data Center Services」がクラウドプロバイダーの間に浸透しているからだ。

 スタテン氏によると、Dellは米Perot Systemsの買収を機にITサービス分野への進出を狙っており、同社のVirtual Integrated System(VIS) Architectureプログラムはプライベートクラウドを販売しようという試みだ。しかし、これらの取り組みはいずれも大した成果を挙げていない。一方、米IBM(参考:企業内クラウド環境を迅速に構築可能なIBMのプライベートクラウドソリューション)や米Hewlett-Packard(HP)といった大手ライバルメーカーや、後発組の米Cisco Systemsといった企業は以前から、クラウド製品あるいはクラウド的な製品を提供している。スタテン氏によると、VISのようなプログラムはDellが成熟してきたことを示すものだという。

 「HPも以前はDellと同じように、顧客に製品カタログを見せて"どれがいいですか"と言うだけだった。だが両社とも、こういった販売手法から脱皮しつつある。このようなやり方が通用しなくなったからだ」とスタテン氏は指摘する

 企業の間でも、プライベートクラウドを拡張し、パブリック(あるいは半パブリック)クラウドインフラとの連係が可能な高い統合性と機能性を備えたインフラ(参考:ハイブリッドクラウドの実現に向けて)への期待が徐々に高まっている。

 スタテン氏によると、Dellは長い間、コンシューマー側に軸足を置いてきたが、ここにきて、より大きな獲物を狙える大海に飛び込みたいと考えているという。

 「彼らがAmazon Web Servicesと競争するのは無理かもしれないが、HPの最近の発表に対抗するものをPerot部門が打ち出してくる可能性は十分ある」と同氏は語る。HPは既に、プライベート/ハイブリッド型クラウドアプライアンスとIaaSサービスを発表している。

 Dellのマーケティングディレクター、マヘッシュ・クマー氏は「ターゲット市場は、数台のサーバを保有し、クレジットカードで購入するといった小口ユーザーではない」と話す。

 クマー氏によると、企業向けのクラウドサービス製品を形式化・標準化し、それをプライベートクラウド用ハードウェア製品群と結合するのがDellの狙いだという。

Dellのクラウド製品の概要

 4月7日に発表されたDellの新アプライアンス「vStart」はVMwareをベースとする製品で、同社が投入予定の新しいIaaSサービスとの連係が訴求点になるとみられる。

 「vStart 100」および「vStart 200」は、PowerEdge R710サーバにEqualLogicストレージを組み合わせた製品で、このハードウェアを管理するためのVMware vCenterが付属する。モデル名に付いている数字はサポートする仮想マシン(VM)の数を示しており、例えば、vStart 100は100個の仮想マシン用とされている。

 Dellは2010年、今回の新バンドルと同様の製品ラインを発表した。MicrosoftのHyper-Vが動作するように構成された認定済みリファレンスアーキテクチャ「Hyper-V Cloud Fast Track」だ。価格はvStartアプライアンスとほぼ同じに設定され、100個のVMが動作するHyper-V Cloud Fast Trackは10万ドル前後になる見込みだ。

 Dellは既に、クラウドコンピューティングへの進出をにらんだ動きを幾つか展開しており、「cloudcomputing.com」というドメインまで取得している。しかし同社の本業であるビジネスコンピュータの枠を超えるような際立った製品をまだ打ち出せないでいる。同社はこれまでに、米Joyent、英Canonical(Ubuntuの開発企業)、米Eucalyptusと協力関係を結び(「UEC on Dell Servers」と呼ばれる製品を開発)、MicrosoftとはHyper-Vで提携した他、Perot部門を通じてインテグレーションとクラウドのコンサルティングサービスを売り込もうとしてきた。Dellはクラウドコンピューティング市場に風穴を開けることができるのだろうか。

 「現段階ではまだ何とも言えない」と話すのは、米Thermo Fisher Scientificのシステムアーキテクト、ドミトリー・イルカエフ氏だ。同氏はDellのVirtual Data CenterおよびVIS製品の一部をクラウド戦略のコンポーネントとして検討中だ。同氏はVISが「オープンソリューション」である点が気に入っているという。すなわち、VISではさまざまなベンダーのハードウェアを管理できるということだ。

米アップルがクラウドサービスを6日発表へ、ジョブズ氏が講演

 米アップルは31日、6月6日にサンフランシスコで開幕する年次開発者会議で、スティーブ・ジョブズ最高経営責任者(CEO)が基調講演を行うことを明らかにした。同会議では、アップルの新たなクラウドコンピューティングサービスなどが発表される。

 発表を受け、アップルの株価は3.09%値上がりして取引を終えた。ただ、今年1月から病気療養中のジョブズCEOが、職務復帰するかどうかは不明。

 過去にもすい臓がんの治療や肝臓移植手術を受けたジョブズCEOは、3月にタブレット型端末「iPad(アイパッド)2」の記者発表に姿を見せ、会場を沸かせた。

 6日の会議では、「iCloud(アイクラウド)」と呼ばれる新たなクラウドサービスが発表される予定。アップルはクラウドを利用した音楽サービスの開始に向けて、これまでに大手音楽会社3社とライセンス契約を締結している。

 ほかにも、マック用基本ソフト「Mac OS X(テン)」の新バージョン「ライオン」や携帯端末向けの新OS「iOS(アイオーエス)5」が発表されることになっている。

 また、同社は例年この時期に新型「iPhone(アイフォーン)」を発表しているが、複数の情報筋によると、新モデルは9月まで発表されない見通しだという。