1. トップ
  2. 新着ニュース
  3. 国際
  4. アジア

有害コンテンツを摘発、その理由も説明する…韓国ネット大手の「巨大言語モデル」

KOREA WAVE / 2024年10月25日 13時0分

カカオのチョ・ヘヨン研究員(c)news1

【KOREA WAVE】韓国ネット大手カカオが、巨大言語モデルを活用して有害コンテンツをモニタリングし、人工知能生成による回答の倫理性を検討する。

カカオのチョ・ヘヨン研究員は22日、カカオAIキャンパスで開かれた「if2024」で「カカオは有害コンテンツモニタリングシステムとコンテンツ倫理性を判断するAIガードレールにLLMを適用しスパム情報を分類する」と説明した。

有害コンテンツ監視システムは▽分類結果▽要約▽疑わしいキーワード ▽推奨ポリシー――の4つの段階で構成されている

まず、運営者は、通報または公開されたコンテンツがスパムかどうかを一次的に判断する。 その後、オリジナルコンテンツの内容を簡単に整理し、コンテンツ内の新語・隠語や文脈を解釈する必要がある「同形異義語」を識別する。最後に、上記の結果を総合して、とるべき措置を提案する。

また、LLMが、スパム分類結果とともに、どの部分が有害なのか、分類理由を説明する。これにより、運営者は効率的にスパムを監視することができる。

チョ研究員は「スパム分類能力と文章生成能力の両方が必要な作業なのでLLMを適用した。大規模データ学習を通じてスパムのパターンと文脈を理解することができる」と説明した。

(c)news1/KOREA WAVE/AFPBB News

この記事に関連するニュース

トピックスRSS

ランキング

記事ミッション中・・・

10秒滞在

記事にリアクションする

記事ミッション中・・・

10秒滞在

記事にリアクションする

デイリー: 参加する
ウィークリー: 参加する
マンスリー: 参加する
10秒滞在

記事にリアクションする

次の記事を探す

エラーが発生しました

ページを再読み込みして
ください