今後のビッグデータ活用の鍵はリアルタイム化とセキュリティ管理

EnterpriseZine / 2012年5月28日 0時0分

今週もまた、ビッグデータやインメモリといったキーワードが、IT業界を飛び交っていた。そして、その両方のキーワードを含むソリューションを発表したのがSAS。発表したのは、インメモリ型BI製品の「SAS Visual Analytics」。その特長はHadoopのファイルシステムであるHDFSを内包し、ビッグデータをインメモリのアーキテクチャを使って高速に分析できるというもの。

■時間をかけて行っていた高度な分析もリアルタイム化を目指したい

 今週もまた、ビッグデータやインメモリといったキーワードが、IT業界を飛び交っていた。そして、その両方のキーワードを含むソリューションを発表したのがSAS。発表したのは、インメモリ型BI製品の「SAS Visual Analytics」。その特長はHadoopのファイルシステムであるHDFSを内包し、ビッグデータをインメモリのアーキテクチャを使って高速に分析できるというもの。

 この製品のエンジンとなるのがLASR Analytic Server。これ、ブレードサーバーを活用し、HDFSとインメモリを用いて大量データを効率よくインメモリ上で分析処理するもの。ブレードサーバーは、基本的にどのベンダーのものでもいい(現時点ではDELLとHPのブレードサーバーが認証されているとのこと)。汎用サーバーに載せるソフトウェアとして提供され、いわゆるアプライアンス製品ではない。ブレードサーバーを活用することで、1台のサーバーに巨大なメモリーを搭載するようなインメモリのソリューションよりも、かなりコスト効率はよくなるとのことだ。

 SASに昨年取材をした際には、高速処理性能もあるけど、むしろ高度な分析の仕組みを持っていることこそが同社の強みだと言っていた。もともと強い統計処理に、予測やシミュレーションを加えて高度な分析を行える。SASの仕組みを使えば、高度な分析のPDCAサイクルを回して、予測の精度を上げられるのも大きな特長。そして、そのような高度な分析を行う場合には、多少時間がかかってもいいから、じっくりと腰を据えて分析を行うという見解だった。
SAS 吉田社長

 これが、ビッグデータの時代になり、高度な分析をしようとするとさらに時間がかかることに。そうなると、当然ながら「より速く」が求められ、高度な分析においてもリアルタイム性が重要になるのだとSASの吉田社長は言う。

  • 前のページ
    • 1
    • 2
  • 次のページ
EnterpriseZine

トピックスRSS

ランキング