今後のビッグデータ活用の鍵はリアルタイム化とセキュリティ管理

EnterpriseZine / 2012年5月28日 0時0分

分析に時間がかかってしまうと、何らか対処すべき結果が出てもそれをもとに対策を施す時間がない。さらに、分析のシナリオも、処理に時間がかかると1度に1つしか流せないが、高速に処理できれば1度に複数の撓りを流すことも可能に。そうなればより精度の高い分析ができるのは確かだ。

 この1年のテクノロジーの進化により、極めて高度な分析をする際にも高速性、リアルタイム性が重要というように、SASの戦略も変化したということになる。

 で、それを解決するテクノロジーが、インメモリでありHDFSだったわけだ。

 HadoopとMapReduceという組み合わせで使うのではなく、ファイルシステムのHDFS部分だけを切り出しそれに自社テクノロジーを組み合わせるという方法は、今後さらに増えそうだなと感じている。1つの部品としてオープンソースソフトウェアを捉える目もこれからは必要になりそうだ。


谷川 耕一[著]

■関連記事

Hadoopがデスクトップに!? データ分析をシングルプラットフォームにも届けるDatameerとは[2012年06月20日]

いろいろなデータベース[2012年06月19日]

不具合の原因を突き止めろ!SQL Server探偵はロジカルシンキング優良児―マイクロソフト 古賀 啓一郎さん[2012年06月13日]

リレーショナル・データベース入門[2012年06月12日]

Oracleのパブリッククラウドサービスへの参入はクラウドマーケットの地図を大きく塗り替えるのか[2012年06月12日]



■記事全文へ

この記事に関連するニュース

トピックスRSS

ランキング