1. トップ
  2. 新着ニュース
  3. 経済
  4. プレスリリース

Confluent、AIを簡素化し多様なワークロードのストリーム処理を実現するApache Flinkの新機能を発表

Digital PR Platform / 2024年5月15日 11時0分

AI Model Inference が AI および ML アプリケーションの開発とリリースを簡素化

生成 AI は企業のイノベーションを加速させ、より一層カスタマイズされた顧客体験の提供を可能にします。AI ワークロードは、基礎となるモデルが正確な結果を生成し、ビジネスに利用可能な最新情報に基づいた意思決定をするために、新鮮であると同時にコンテキストが豊富なデータを必要とします。

しかしながら、多くの場合、開発者は AI モデルやデータ処理パイプラインを扱うために複数のツールやプログラミング言語の使用しなければなりません。その結果、ワークロードは複雑かつ断片的になります。このため、意思決定に最新かつ適切なデータを活用することが難しくなり、エラーや不整合が生じ、 AI主導の洞察の正確性と信頼性が損なわれることにつながります。このような問題は開発時間を増加させ、AI アプリケーションの保守と拡張を難しくしています。

Confluent Cloud for Apache Flink®(https://www.confluent.io/ja-jp/product/flink/
)の AI Model
Inference により、顧客は Apache Flink 内からシンプルな SQL 構文を使用して、OpenAI、AWS
SageMaker、GCP Vertex、Microsoft Azure などのAIエンジンを呼び出すことができます。この結果、組織が必要とするデータクリーニングと処理タスクを単一のプラットフォーム上で管理することが可能になります。

Confluent の Chief Product Officer である Shaun Clowes は、次のように述べています。「Apache
KafkaとFlinkは、機械学習と人工知能アプリケーションに最もタイムリーで正確なデータを供給するための重要なリンクです。Confluent の AI Model Inference は、AI開発にストリーミングデータを使用する際の複雑さを取り除き、組織により速くイノベーションをもたらし、強力な顧客体験の提供を実現させるものです」

AI Model Inference が可能にする主な点は以下のとおりです。

使い慣れた SQL 構文を使用して AI および ML モデルを直接操作することで、AI 開発を簡素化し、専門的なツールやプログラミング言語の必要性を低減。
データ処理と AI ワークフロー間のシームレスな連携を可能にし、効率性を高めつつ運用の複雑さを軽減。
新鮮で文脈を持つストリーミングデータを活用した正確でリアルタイムの AI 主導の意思決定を実現。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください