コンテンツにスキップ

FAQ

デプロイに費用はかかりますか?

Section titled “デプロイに費用はかかりますか?”

はい、AWSリソースの使用に応じて費用が発生します。主な課金リソースは以下の通りです。

リソース説明
NAT GatewayVPC外部通信(時間あたり + データ転送)
ECS FargateFastAPIバックエンドコンテナ(vCPU + メモリ)
ElastiCache RedisWebSocket接続管理
S3 / S3 Express One Zoneドキュメント保存、ベクトルDB、セッション、アーティファクト
SageMaker EndpointPaddleOCR(ml.g5.xlarge、使用時のみスケールアップ)
Bedrockモデル呼び出し件あたり課金(入出力トークン)
Step Functionsワークフロー実行件あたり状態遷移課金
DynamoDB読み取り/書き込み容量ユニット

デプロイに失敗しました。どうすればいいですか?

Section titled “デプロイに失敗しました。どうすればいいですか?”

Quick Deploy Guide - トラブルシューティングセクションを参照してください。CodeBuildログで失敗原因を確認できます。

Terminal window
aws logs tail /aws/codebuild/sample-aws-idp-pipeline-deploy --since 10m

SageMakerエンドポイントを常時稼働させるには?

Section titled “SageMakerエンドポイントを常時稼働させるには?”

デフォルト設定はオートスケーリング0→1で、未使用時10分後にインスタンスが0に縮小されます。常時稼働させるには、最小インスタンス数を変更します。

AWS Consoleで変更:

  1. SageMaker Console > Inference > Endpointsでエンドポイントを選択
  2. Endpoint runtime settingsタブでvariantを選択し、Update scaling policyをクリック
  3. Minimum instance count1に変更

分析に使用されるAIモデルを変更するには?

Section titled “分析に使用されるAIモデルを変更するには?”

ワークフロー分析モデルはpackages/infra/src/models.jsonで管理されています。

{
"analysis": "global.anthropic.claude-sonnet-4-6",
"summarizer": "global.anthropic.claude-haiku-4-5-20251001-v1:0",
"embedding": "amazon.nova-2-multimodal-embeddings-v1:0",
"videoAnalysis": "us.twelvelabs.pegasus-1-2-v1:0"
}
キー用途Lambda環境変数
analysisセグメント分析、Q&A再生成BEDROCK_MODEL_ID
summarizer文書要約SUMMARIZER_MODEL_ID
embeddingベクトル埋め込みEMBEDDING_MODEL_ID
videoAnalysis動画分析BEDROCK_VIDEO_MODEL_ID

方法1: models.jsonを修正して再デプロイ(推奨)

Terminal window
# models.json修正後
pnpm nx deploy @idp-v2/infra

方法2: Lambda環境変数を直接修正

再デプロイなしで即座に変更するには、Lambda Consoleで環境変数を修正します。

  1. Lambda Console > 該当関数を選択(例:IDP-V2-*-SegmentAnalyzer
  2. Configuration > Environment variables > Edit
  3. 環境変数の値を修正してSave

ドキュメント(PDF、DOC、TXT)、画像(PNG、JPG、GIF、TIFF)、動画(MP4、MOV、AVI)、音声(MP3、WAV、FLAC)ファイルを最大500MBまでサポートしています。

ファイルタイプ対応フォーマット前処理
ドキュメントPDF、DOC、TXTPaddleOCR + BDA(オプション)+ PDFテキスト抽出
画像PNG、JPG、GIF、TIFFPaddleOCR + BDA(オプション)
動画MP4、MOV、AVIAWS Transcribe + BDA(オプション)
音声MP3、WAV、FLACAWS Transcribe

大容量ドキュメント(数千ページ)も処理できますか?

Section titled “大容量ドキュメント(数千ページ)も処理できますか?”

はい。Step Functions + DynamoDBベースのセグメント処理方式で大容量ドキュメントをサポートしています。Step Functionsのペイロード制限(256KB)を回避するためにDynamoDBを中間ストレージとして使用し、Distributed Mapで最大30セグメントを同時に分析します。

OCRエンジンは何を使用していますか?違いは?

Section titled “OCRエンジンは何を使用していますか?違いは?”
OCRエンジン説明
PaddleOCRSageMakerで実行されるオープンソースOCR。80以上の言語をサポート。テキスト抽出に最適化
Bedrock Data Automation(BDA)AWS管理サービス。ドキュメント構造(テーブル、フォームなど)を一緒に分析。プロジェクト設定で選択可能

詳細はPaddleOCR on SageMakerを参照してください。

動画/音声ファイルはどのように分析されますか?

Section titled “動画/音声ファイルはどのように分析されますか?”
  1. AWS Transcribeが音声をテキストに変換します
  2. 動画の場合、TwelveLabs Pegasus 1.2が視覚的内容を分析します
  3. トランスクリプション + 視覚分析結果を組み合わせてセグメントを生成します
  4. ReAct Agentが各セグメントを深層分析します

分析結果が不正確な場合はどうすればいいですか?

Section titled “分析結果が不正確な場合はどうすればいいですか?”

複数のレベルで結果を修正できます。

  • Q&A再生成: 特定セグメントのQ&Aをカスタム指示とともに再生成
  • Q&A追加/削除: 個別のQ&A項目を手動で追加または削除
  • 全体再分析: ドキュメント全体を新しい指示で再分析

ドキュメント分析プロンプトをカスタマイズできますか?

Section titled “ドキュメント分析プロンプトをカスタマイズできますか?”

はい。プロジェクト設定でドキュメント分析プロンプトを修正できます。このプロンプトはReAct Agentがセグメントを分析する際に使用されます。プロジェクトのドメインや分析目的に合わせてカスタマイズすると、より正確な結果が得られます。

どのAIモデルを使用していますか?

Section titled “どのAIモデルを使用していますか?”
モデル用途
Claude Sonnet 4.6セグメント分析(Vision ReAct Agent)、AIチャット
Claude Haiku 4.5文書要約
Amazon Nova Embed Text v1ベクトル埋め込み(1024d)
TwelveLabs Pegasus 1.2動画分析
Cohere Rerank v3.5検索結果再ランキング

チャットはドキュメント内容に基づいて回答しますか?

Section titled “チャットはドキュメント内容に基づいて回答しますか?”

はい。AI AgentがMCPツールを通じてプロジェクトにアップロードされたドキュメントを自動的に検索します。ベクトル検索と全文検索(FTS)を組み合わせたハイブリッド検索を実行し、Cohere Rerankで結果を再ランキングして、最も関連性の高い内容に基づいて回答します。

カスタムエージェントとは何ですか?

Section titled “カスタムエージェントとは何ですか?”

プロジェクトごとにシステムプロンプトを設定したカスタムエージェントを作成できます。例えば、法律文書分析専用エージェント、技術文書要約専用エージェントなどを作成して使用できます。会話中にエージェントを切り替えることもできます。

エージェントが使用できるツールは?

Section titled “エージェントが使用できるツールは?”
ツール説明
search_documentsプロジェクトドキュメントのハイブリッド検索
save/load/edit_markdownマークダウンファイルの作成と編集
create_pdf, extract_pdf_text/tablesPDF作成とテキスト/テーブル抽出
create_docx, extract_docx_text/tablesWordドキュメント作成とテキスト/テーブル抽出
generate_imageAI画像生成
code_interpreterPythonコード実行

チャットに画像やドキュメントを添付できますか?

Section titled “チャットに画像やドキュメントを添付できますか?”

はい。チャット入力欄に画像やドキュメントを添付してマルチモーダル入力を使用できます。AI Agentが添付ファイルの内容を分析して回答します。


認証はどのように処理されますか?

Section titled “認証はどのように処理されますか?”

Amazon Cognito OIDC認証を使用しています。フロントエンドでCognitoを通じてログインするとJWTトークンが発行され、バックエンドAPI呼び出し時にトークンが自動的に含まれます。MCPツール呼び出しにはIAM SigV4認証を使用しています。

データはどこに保存されますか?

Section titled “データはどこに保存されますか?”
データストレージ
元ファイル、セグメント画像Amazon S3
ベクトル埋め込み、検索インデックスLanceDB(S3 Express One Zone)
プロジェクト/ワークフローメタデータAmazon DynamoDB
チャットセッション、エージェントプロンプト、アーティファクトAmazon S3
WebSocket接続情報Amazon ElastiCache Redis

LanceDBデータを直接確認できますか?

Section titled “LanceDBデータを直接確認できますか?”

LanceDBはS3 Express One Zoneに保存されているため、直接アクセスが困難です。CloudShellからLambdaを通じて照会できます。

テーブル一覧照会

Terminal window
aws lambda invoke --function-name idp-v2-lancedb-service \
--payload '{"action": "list_tables", "params": {}}' \
--cli-binary-format raw-in-base64-out \
/dev/stdout 2>/dev/null | jq .

特定プロジェクトのレコード数照会

Terminal window
aws lambda invoke --function-name idp-v2-lancedb-service \
--payload '{"action": "count", "params": {"project_id": "YOUR_PROJECT_ID"}}' \
--cli-binary-format raw-in-base64-out \
/dev/stdout 2>/dev/null | jq .

特定ワークフローのセグメント照会

Terminal window
aws lambda invoke --function-name idp-v2-lancedb-service \
--payload '{"action": "get_segments", "params": {"project_id": "YOUR_PROJECT_ID", "workflow_id": "YOUR_WORKFLOW_ID"}}' \
--cli-binary-format raw-in-base64-out \
/dev/stdout 2>/dev/null | jq .

検索(ハイブリッド: ベクトル + キーワード)

Terminal window
aws lambda invoke --function-name idp-v2-lancedb-service \
--payload '{"action": "search", "params": {"project_id": "YOUR_PROJECT_ID", "query": "検索クエリ", "limit": 5}}' \
--cli-binary-format raw-in-base64-out \
/dev/stdout 2>/dev/null | jq .