FAQ
デプロイに費用はかかりますか?
Section titled “デプロイに費用はかかりますか?”はい、AWSリソースの使用に応じて費用が発生します。主な課金リソースは以下の通りです。
| リソース | 説明 |
|---|---|
| NAT Gateway | VPC外部通信(時間あたり + データ転送) |
| ECS Fargate | FastAPIバックエンドコンテナ(vCPU + メモリ) |
| ElastiCache Redis | WebSocket接続管理 |
| S3 / S3 Express One Zone | ドキュメント保存、ベクトルDB、セッション、アーティファクト |
| SageMaker Endpoint | PaddleOCR(ml.g5.xlarge、使用時のみスケールアップ) |
| Bedrock | モデル呼び出し件あたり課金(入出力トークン) |
| Step Functions | ワークフロー実行件あたり状態遷移課金 |
| DynamoDB | 読み取り/書き込み容量ユニット |
デプロイに失敗しました。どうすればいいですか?
Section titled “デプロイに失敗しました。どうすればいいですか?”Quick Deploy Guide - トラブルシューティングセクションを参照してください。CodeBuildログで失敗原因を確認できます。
aws logs tail /aws/codebuild/sample-aws-idp-pipeline-deploy --since 10mインフラストラクチャ
Section titled “インフラストラクチャ”SageMakerエンドポイントを常時稼働させるには?
Section titled “SageMakerエンドポイントを常時稼働させるには?”デフォルト設定はオートスケーリング0→1で、未使用時10分後にインスタンスが0に縮小されます。常時稼働させるには、最小インスタンス数を変更します。
AWS Consoleで変更:
- SageMaker Console > Inference > Endpointsでエンドポイントを選択
- Endpoint runtime settingsタブでvariantを選択し、Update scaling policyをクリック
- Minimum instance countを
1に変更
分析に使用されるAIモデルを変更するには?
Section titled “分析に使用されるAIモデルを変更するには?”ワークフロー分析モデルはpackages/infra/src/models.jsonで管理されています。
{ "analysis": "global.anthropic.claude-sonnet-4-6", "summarizer": "global.anthropic.claude-haiku-4-5-20251001-v1:0", "embedding": "amazon.nova-2-multimodal-embeddings-v1:0", "videoAnalysis": "us.twelvelabs.pegasus-1-2-v1:0"}| キー | 用途 | Lambda環境変数 |
|---|---|---|
analysis | セグメント分析、Q&A再生成 | BEDROCK_MODEL_ID |
summarizer | 文書要約 | SUMMARIZER_MODEL_ID |
embedding | ベクトル埋め込み | EMBEDDING_MODEL_ID |
videoAnalysis | 動画分析 | BEDROCK_VIDEO_MODEL_ID |
方法1: models.jsonを修正して再デプロイ(推奨)
# models.json修正後pnpm nx deploy @idp-v2/infra方法2: Lambda環境変数を直接修正
再デプロイなしで即座に変更するには、Lambda Consoleで環境変数を修正します。
- Lambda Console > 該当関数を選択(例:
IDP-V2-*-SegmentAnalyzer) - Configuration > Environment variables > Edit
- 環境変数の値を修正してSave
ドキュメント処理
Section titled “ドキュメント処理”対応ファイル形式は?
Section titled “対応ファイル形式は?”ドキュメント(PDF、DOC、TXT)、画像(PNG、JPG、GIF、TIFF)、動画(MP4、MOV、AVI)、音声(MP3、WAV、FLAC)ファイルを最大500MBまでサポートしています。
| ファイルタイプ | 対応フォーマット | 前処理 |
|---|---|---|
| ドキュメント | PDF、DOC、TXT | PaddleOCR + BDA(オプション)+ PDFテキスト抽出 |
| 画像 | PNG、JPG、GIF、TIFF | PaddleOCR + BDA(オプション) |
| 動画 | MP4、MOV、AVI | AWS Transcribe + BDA(オプション) |
| 音声 | MP3、WAV、FLAC | AWS Transcribe |
大容量ドキュメント(数千ページ)も処理できますか?
Section titled “大容量ドキュメント(数千ページ)も処理できますか?”はい。Step Functions + DynamoDBベースのセグメント処理方式で大容量ドキュメントをサポートしています。Step Functionsのペイロード制限(256KB)を回避するためにDynamoDBを中間ストレージとして使用し、Distributed Mapで最大30セグメントを同時に分析します。
OCRエンジンは何を使用していますか?違いは?
Section titled “OCRエンジンは何を使用していますか?違いは?”| OCRエンジン | 説明 |
|---|---|
| PaddleOCR | SageMakerで実行されるオープンソースOCR。80以上の言語をサポート。テキスト抽出に最適化 |
| Bedrock Data Automation(BDA) | AWS管理サービス。ドキュメント構造(テーブル、フォームなど)を一緒に分析。プロジェクト設定で選択可能 |
詳細はPaddleOCR on SageMakerを参照してください。
動画/音声ファイルはどのように分析されますか?
Section titled “動画/音声ファイルはどのように分析されますか?”- AWS Transcribeが音声をテキストに変換します
- 動画の場合、TwelveLabs Pegasus 1.2が視覚的内容を分析します
- トランスクリプション + 視覚分析結果を組み合わせてセグメントを生成します
- ReAct Agentが各セグメントを深層分析します
分析結果が不正確な場合はどうすればいいですか?
Section titled “分析結果が不正確な場合はどうすればいいですか?”複数のレベルで結果を修正できます。
- Q&A再生成: 特定セグメントのQ&Aをカスタム指示とともに再生成
- Q&A追加/削除: 個別のQ&A項目を手動で追加または削除
- 全体再分析: ドキュメント全体を新しい指示で再分析
ドキュメント分析プロンプトをカスタマイズできますか?
Section titled “ドキュメント分析プロンプトをカスタマイズできますか?”はい。プロジェクト設定でドキュメント分析プロンプトを修正できます。このプロンプトはReAct Agentがセグメントを分析する際に使用されます。プロジェクトのドメインや分析目的に合わせてカスタマイズすると、より正確な結果が得られます。
どのAIモデルを使用していますか?
Section titled “どのAIモデルを使用していますか?”| モデル | 用途 |
|---|---|
| Claude Sonnet 4.6 | セグメント分析(Vision ReAct Agent)、AIチャット |
| Claude Haiku 4.5 | 文書要約 |
| Amazon Nova Embed Text v1 | ベクトル埋め込み(1024d) |
| TwelveLabs Pegasus 1.2 | 動画分析 |
| Cohere Rerank v3.5 | 検索結果再ランキング |
AIチャット
Section titled “AIチャット”チャットはドキュメント内容に基づいて回答しますか?
Section titled “チャットはドキュメント内容に基づいて回答しますか?”はい。AI AgentがMCPツールを通じてプロジェクトにアップロードされたドキュメントを自動的に検索します。ベクトル検索と全文検索(FTS)を組み合わせたハイブリッド検索を実行し、Cohere Rerankで結果を再ランキングして、最も関連性の高い内容に基づいて回答します。
カスタムエージェントとは何ですか?
Section titled “カスタムエージェントとは何ですか?”プロジェクトごとにシステムプロンプトを設定したカスタムエージェントを作成できます。例えば、法律文書分析専用エージェント、技術文書要約専用エージェントなどを作成して使用できます。会話中にエージェントを切り替えることもできます。
エージェントが使用できるツールは?
Section titled “エージェントが使用できるツールは?”| ツール | 説明 |
|---|---|
| search_documents | プロジェクトドキュメントのハイブリッド検索 |
| save/load/edit_markdown | マークダウンファイルの作成と編集 |
| create_pdf, extract_pdf_text/tables | PDF作成とテキスト/テーブル抽出 |
| create_docx, extract_docx_text/tables | Wordドキュメント作成とテキスト/テーブル抽出 |
| generate_image | AI画像生成 |
| code_interpreter | Pythonコード実行 |
チャットに画像やドキュメントを添付できますか?
Section titled “チャットに画像やドキュメントを添付できますか?”はい。チャット入力欄に画像やドキュメントを添付してマルチモーダル入力を使用できます。AI Agentが添付ファイルの内容を分析して回答します。
セキュリティ
Section titled “セキュリティ”認証はどのように処理されますか?
Section titled “認証はどのように処理されますか?”Amazon Cognito OIDC認証を使用しています。フロントエンドでCognitoを通じてログインするとJWTトークンが発行され、バックエンドAPI呼び出し時にトークンが自動的に含まれます。MCPツール呼び出しにはIAM SigV4認証を使用しています。
データはどこに保存されますか?
Section titled “データはどこに保存されますか?”| データ | ストレージ |
|---|---|
| 元ファイル、セグメント画像 | Amazon S3 |
| ベクトル埋め込み、検索インデックス | LanceDB(S3 Express One Zone) |
| プロジェクト/ワークフローメタデータ | Amazon DynamoDB |
| チャットセッション、エージェントプロンプト、アーティファクト | Amazon S3 |
| WebSocket接続情報 | Amazon ElastiCache Redis |
LanceDBデータを直接確認できますか?
Section titled “LanceDBデータを直接確認できますか?”LanceDBはS3 Express One Zoneに保存されているため、直接アクセスが困難です。CloudShellからLambdaを通じて照会できます。
テーブル一覧照会
aws lambda invoke --function-name idp-v2-lancedb-service \ --payload '{"action": "list_tables", "params": {}}' \ --cli-binary-format raw-in-base64-out \ /dev/stdout 2>/dev/null | jq .特定プロジェクトのレコード数照会
aws lambda invoke --function-name idp-v2-lancedb-service \ --payload '{"action": "count", "params": {"project_id": "YOUR_PROJECT_ID"}}' \ --cli-binary-format raw-in-base64-out \ /dev/stdout 2>/dev/null | jq .特定ワークフローのセグメント照会
aws lambda invoke --function-name idp-v2-lancedb-service \ --payload '{"action": "get_segments", "params": {"project_id": "YOUR_PROJECT_ID", "workflow_id": "YOUR_WORKFLOW_ID"}}' \ --cli-binary-format raw-in-base64-out \ /dev/stdout 2>/dev/null | jq .検索(ハイブリッド: ベクトル + キーワード)
aws lambda invoke --function-name idp-v2-lancedb-service \ --payload '{"action": "search", "params": {"project_id": "YOUR_PROJECT_ID", "query": "検索クエリ", "limit": 5}}' \ --cli-binary-format raw-in-base64-out \ /dev/stdout 2>/dev/null | jq .