RWSのTrainAI®は、生成AIのイノベーションにおけるバイアスやハルシネーションのリスクを軽減するため、組織による倫理的で正確かつ信頼性の高い生成AIアプリケーションの構築を支援する、各種AIデータサービスを正式に開始しました。新サービスは、この1年のTrainAIの成功を受けたものです。TrainAIでは現在、世界のテクノロジー企業トップ5のうち4社と連携し、お客様向けAIデータトレーニングサービスの革新と開発を継続的に行っています。
RWSのEnterprise Services担当PresidentであるVasagi Kothandapaniは次のように述べています。「生成AIの開発と導入には、膨大な量のトレーニングデータのほか、それらを微調整するための膨大な時間と専門知識が必要になりますが、すべての企業がこのようなリソースを社内ですぐに用意できるとは限りません。TrainAIの各種サービスはこのギャップを埋めるように設計されており、AIトレーニングの準備とデータの微調整を責任ある倫理的な方法で行うために必要な深い専門知識を提供します」
TrainAIの各種生成AIサービスは、TrainAIコミュニティに属する、資格審査を通過した地域固有の専門分野のエキスパートが持つ知識を活用し、プロンプトエンジニアリング、応答の改善、事実の検証、レッドチーミングの実行を行います。たとえば次のようなサービスがあります。
- 専門分野の知識:プロジェクトは、10万人以上が参加する強力なTrainAIコミュニティによって優先順位が付けられます。このコミュニティには、幅広いトピックや業界の経験を持つあらゆる教育レベルの専門知識を持つエキスパートが属しています。
- プロンプトエンジニアリング:TrainAIコミュニティの経験豊富なプロが、プロンプトベースの学習、プロンプト設計、プロンプトの調整、高度なプロンプティング、安全アライメントなどのサービスを提供し、有害、攻撃的、または不適切な出力結果が生成されるリスクを軽減します。
- 人間のフィードバックによる強化学習(RLHF):応答の評価と編集、事実の抽出と検証など、幅広いRLHFサービスにより、生成AIは人間が何を求めているかを理解し、関連性と信頼性が高く、安全で正確な応答を出力できるようになります。
- レッドチーミングとジェイルブレイク:レッドチーミングやジェイルブレイクなどのリスク軽減サービスでは、モデルがハルシネーションを引き起こしたり潜在的に有害なコンテンツを生成したりする原因となるプロンプトを意図的に作成し、生成AIに潜む脆弱性の発見と対処につなげます。
TrainAIは、すでに世界最大規模の組織で生成AIのトレーニングや微調整を支援しています。米国のある多国籍テクノロジー複合企業は、TrainAIを採用し、TrainAIコミュニティに属する専門分野のエキスパートが準備したコンテンツを使用して自社のオープンソースの大規模言語モデル(LLM)を微調整することで、差別化を図りました。TrainAIでは、200人以上の専門分野のエキスパートの採用、トレーニング、配備を迅速に行い、プロジェクトの最初の3か月間で32,000時間を超える作業を完了しました。その結果、このお客様は最新バージョンのLLMを無事にリリースできました。TrainAIのプロジェクトへの取り組みは今日も続いています。
企業はTrainAIの各種生成AIサービスを使用して、RWSの最近の『Genuine Intelligence™ - 人間と機械のコラボレーションの未来』レポートで取り上げられているいくつかの難しいテーマに対応できます。TrainAIのProgramme DirectorであるMelanie Petersonは次のように語ります。「ハルシネーションやバイアスなど、AIの問題のほとんどは、説明可能性に欠ける不透明な手法が原因です。Genuine Intelligence(真のインテリジェンス)を通じて構築する責任ある厳格かつ倫理的なAI開発アプローチは、より強固なAI基盤を実現します」
生成AIまたはLLMプロジェクトをご検討中の企業の皆様は、TrainAIの無料生成AIツールとリソースをお試しください。TrainAIの生成AIデータサービスについて詳しくは、こちらをクリックしてください。