予測AIのパワーを解き放つシリーズのパート2、AgilePointのAIコントロールタワーをご紹介します。パート1では、AIコントロールタワーを紹介し、バイナリ、マルチクラス、数値予測モデル用の予測AIエージェントについて説明しました。
この投稿では、AIコントロールタワー内の画像分類のための予測AIエージェントについて深く掘り下げます。予測モデルと同様に、画像分類エージェントは、4つの主要なエージェントタイプで、同様のフレームワークに従っています:
- ランタイムフロー適応: 予測に基づいてワークフローを変更する。
- サブプロセスの開始: 自動的にサブプロセスを開始する。
- 通知: 特定の条件が満たされたときにユーザーに警告を発報する。
- 基本的な画像分類: それ以上のアクションは行わず、単に分類を実行する。
画像分類エージェントの主な違い
これらのエージェントは概念的には予測AIモデルと似ていますが、3つの主な違いがあります:
- 画像入力の構成: 予測モデルとは異なり、画像分類エージェントは入力として画像を必要とします。つまり、セットアップ時に画像入力ソースを設定する必要があります。
- 単一の画像処理: 予測AIエージェントは複数の構成を扱うことができますが、画像分類エージェントは一度に1つの構成と1つの画像の処理に制限されています。しかし、バルク画像分類はすぐに登場します!
- 様々な反応: 画像分類エージェントからの応答は大きく変化する可能性があるため、より複雑で、構成はより技術的なものとなります。予測AIモデルからの構造化された予測可能な応答とは異なり、画像分類の応答は、モデルの学習方法、開発プロセス、使用されたAIフレームワークなどの要因に依存します。
ビデオで詳しく見る
これらの違いを詳しく説明するために、この3つのポイントを詳しく取り上げた次のビデオをご覧ください。予測モデルのためのAIエージェントに関する最初のビデオをまだご覧になっていない方は、そちらを先にご覧になることをお勧めします。(※動画の音声は英語です。)
これらのビデオは、AIコントロールタワーのコンセプトとその設定に深く入り込みたいAgilePointアプリデザイナーのためのものであることにご注意ください。画像分類AIコントロールタワーのハイレベルな概要を知りたい方は、こちらをクリックしてください。
設計時 - 画像分類AIコントロールタワーの設定
実行時 - 画像分類AIコントロールタワーの動作
コメント
コメントを投稿