



ChatGPTなどの汎用LLM(大規模言語モデル)は、インターネット上の膨大な知識を持っていますが、それゆえに「答えすぎてしまう」リスクがあります。自社で扱っていない他社商品を推奨したり、存在しない架空の支店を案内したりする「ハルシネーション(もっともらしい嘘)」は、企業としての信頼を失墜させかねません。
実際に「家サイト」の運用現場でも、この課題は明確に認識されていました。
「表示していない展示場を答えてしまうなど、情報が限定されているサイトならではの課題もあります」 (ライダースパブリシティ様 インタビューより引用)
誤回答を防ぐだけであれば、AIに厳しい制限をかければ済みます。しかし、それではユーザーにとって「使いにくいボット」になってしまいます。担当者はこの技術的なジレンマについてこう語ります。
「回答を厳しく制限する方法もあるのですが、あまり固い受け答えになってしまうのは避けたいと思っていて…」 (ライダースパブリシティ様 インタビューより引用)
ここで必要となるのが、専用ツールが持つ「ハイブリッド制御」の技術です。「AIさくらさん」は、企業が絶対に守るべきライン(自社情報の範囲)はルールベースで厳格に管理しつつ、会話の表現や言い回しには生成AIの自由度を持たせるという「スコープ制御」が可能です。この「固すぎず、緩すぎない」絶妙なチューニングこそが、汎用AI単体では実現できない、専用ベンダーの強みです。
運用担当者は、今後の展望として精度の向上に期待を寄せています。
「今後もアップデートで自然なやり取りを保ちながら精度を上げられることに期待しています」 (ライダースパブリシティ様 インタビューより引用)
「精度を上げる」ために不可欠なのが、RAG(Retrieval-Augmented Generation)などの技術を用いたシステム連携です。汎用AIが持つ一般知識ではなく、自社が保有する「全国約60拠点の展示場データベース」を正しく参照し、その範囲内だけで回答を生成させる。この「自社在庫データに基づいた正確な案内」を実現するには、システム連携に強いベンダーの技術力が不可欠です。
本事例から見る、技術選定における同社の評価ポイントは以下の通りです。
企業導入で最も警戒すべきリスクに対し、生成AIの表現力を活かしつつ、回答範囲(スコープ)を細かく制御できる機能を有しています。
ティファナ・ドットコムは多くの大企業・自治体への導入実績があり、「企業が言ってはいけないこと」のライン設定やセキュリティ要件への理解が深いため、リスク管理を重視する企業に適しています。
AIさくらさん(澁谷さくら)
ChatGPTや生成AIなど最新AI技術で、DX推進チームを柔軟にサポート。5分野のAI関連特許、品質保証・クラウドセキュリティISOなどで高品質を約束します。御社の業務内容に合わせて短期間で独自カスタマイズ・個別チューニングしたサービスを納品。登録・チューニングは完全自動対応で、運用時のメンテナンスにも手間が一切かかりません。