AIデータ分析ツール完全ガイド
【2026年5月最新】正直な比較と失敗しない選び方
Gartnerの調査:AIプロジェクトの60%が「データの欠如」で2026年末までに中止される。競合記事が書かない「相関≠因果の落とし穴」「失敗パターン5つ」「コピペ可プロンプト集」「アクション設計の方法」「費用対効果の正直な試算」まで全部書く。
1まず整理する——AIデータ分析ツールの種類と本質
競合記事のほぼすべてが「AIデータ分析ツール」として異なるカテゴリのツールを混在させている。正確に整理する。
4つのカテゴリの違い
| カテゴリ | 主な機能 | 向いている用途 | 例 |
|---|---|---|---|
| 対話型AI(汎用LLM) | CSVをアップロードして自然言語で質問・グラフ化 | 個人・小チームのアドホック分析 | ChatGPT・Claude・Gemini |
| BI(Business Intelligence)ツール | ダッシュボード構築・KPIモニタリング・可視化 | 全社的な経営指標の継続モニタリング | Tableau・Power BI・Looker |
| 予測分析・機械学習ツール | 需要予測・異常検知・顧客離反予測 | 将来予測・パターン発見 | Prediction One・DataRobot |
| AIエージェント型データ分析 | 複数データを横断して自律的に分析・レポート生成 | 定期レポートの完全自動化 | SrushAI・Tableau Pulse |
重要な認識: これらは代替関係ではなく補完関係だ。大手企業はBI+予測分析ツールを組み合わせて使い、中小企業はChatGPT+Excelから始めるのが現実的だ。
2026年の最新動向:「エージェンティックAI」の登場
Tableauは2026年にエージェンティックAIを搭載し、人間が目標を設定するとAIが自律的に多段階分析を実行してダッシュボードを自動生成するようになった。SrushAIのような対話型AIエージェントは「先月の売上は?」「返品率が高い商品は?」という問いかけに即時でビジュアルレポートを生成する。
この「AIが自律的に分析を実行する」という方向性が2026年の主流トレンドだ。
2最重要の落とし穴——「相関≠因果」問題
競合記事のどれもが書いていない、しかし実務で最も重要な注意点から始める。
AIが出す「相関」をそのまま「原因」と解釈してはいけない
AIデータ分析ツールが得意なのは「相関関係の発見」だ。「Aが増えるとBも増える」というパターンを大量データから見つけ出すことは非常に得意だ。
しかし「AがBの原因である」かどうかは、AIは判断できない。
具体的な落とし穴の例:
- ECサイトのデータ分析で「カートへの追加回数が多い顧客ほど購入率が高い」という相関を発見→「カートへの追加を促すボタンを増やせば購入率が上がる」と結論付けた→実際は「購入意欲が高い顧客がカートに多く追加する」という逆方向の因果だった
- 「雨の日は傘の売上とアイスの売上が共に上がる」という相関→これは気温という第三変数が原因
- 「広告費を増やすほど売上が上がる」という相関→実際は売上が上がる時期に広告費を増やしているという逆因果
なぜこれが重要か: AIが「相関あり」と示したデータに基づいて施策を打つと、効果がない・逆効果になるリスクがある。AIの分析結果は「仮説の出発点」として使い、「因果関係の検証(A/Bテスト等)」は必ず人間が設計する。
「ブラックボックス問題」——AIがなぜその結論を出したか分からない
複雑な機械学習モデルは「予測の精度」は高いが「なぜその予測をしたか」が説明できないことがある。金融・医療・人事評価など、説明責任が求められる分野では「精度は高いが理由が分からない」AIの結論をそのまま採用することは法的・倫理的リスクがある。
→ 規制業界では説明可能AI(XAI)対応のツールを選ぶことが必要だ。
3失敗パターン5つ——競合記事が書かない現実
Gartnerは「組織の63%がAIに適したデータ管理体制を持っていない」ことを指摘している。これが失敗の根本原因だ。
AIデータ分析ツールは「良質なデータがある」という前提で機能する。しかし多くの企業では:
– 部門ごとにExcelが分散していてフォーマットが統一されていない
– CSVの表記ゆれ(「東京」「Tokyo」「東京都」が混在)
– 欠損値・異常値が多すぎる
– そもそも分析したい指標を計測・記録していない
この状態で高価なAI分析ツールを導入しても「ゴミを入れてゴミが出る(Garbage In, Garbage Out)」だ。
✅ 正しい準備: ツール導入の前に「データの棚卸し」と「データクレンジング」に3カ月かける。地味だが最重要のステップだ。
「なんかAIで分析すれば新しい発見があるかもしれない」という動機でプロジェクトを開始し、6カ月後に「それで何が分かったのか」「どんな施策に使えたのか」が答えられない——これが最も多い失敗だ。
正しい順序:
1. 解決したいビジネス課題を一文で定義する(「来月の需要予測の精度を上げて在庫ロスを20%削減したい」)
2. その課題に必要なデータは何かを特定する
3. そのデータが存在するか・品質は十分かを確認する
4. ツールを選ぶ
分析結果が出ても、それを「誰が・いつ・どんな判断に使うか」が決まっていないと、レポートが毎月作られるが誰も見ていない状態になる。これはAIデータ分析ツールへの投資の浪費だ。
✅ 正しいプロセス: 後述する「アクション設計」の仕組みを先に作ってからツールを導入する。
AIが「この施策が効果的」と示したとき、その根拠(どのデータ・どのロジックで判断したか)を確認せずに大きな投資判断をする——これは経営判断の失敗だ。
AIの分析結果は「仮説」だ。小規模な検証(A/Bテスト・パイロット施策)で確認してから本格展開する。
DX担当が意気込んで全部門にAIデータ分析ツールを展開したが、リテラシーのない担当者には使われず、結局データサイエンティストだけが使うツールになった——この「形骸化」が非常に多い。
✅ 正しいアプローチ: まず1部門・1ユースケースで3カ月試して効果を数値化してから展開する。
4今日からできる——ChatGPT/Claudeで始めるデータ分析の具体的手順
これが競合記事にない最大の独自コンテンツだ。月額$20のChatGPT Plusまたは無料のClaudeで今日から高度なデータ分析ができる。
STEP 1:データを準備する
ExcelまたはCSVのデータを用意する。以下のことを事前に確認:
- 列名が日本語または英語で明確に記載されている
- 日付フォーマットが統一されている
- 機密情報(個人情報・機密のビジネスデータ)は含まれていないか、マスキングされている
STEP 2:ChatGPTにアップロードして分析する
ChatGPT(有料版・Code Interpreter機能)またはClaudeにCSVをアップロードして以下のプロンプトを使う:
以下のCSVデータを分析してください。 分析してほしいこと: 1. 基本統計量(平均・中央値・最大・最小・標準偏差)をテーブルで表示 2. 時系列で見た主要指標(売上・件数等)の推移をグラフで表示 3. 特異な点・異常値があれば指摘 4. データから読み取れる3つの主要な傾向をビジネス的な言葉で説明 制約: - 分析結果は「事実の説明」と「解釈(仮説)」を明確に分けて記述してください - 相関関係を因果関係として断定しないようにしてください - 根拠のない予測はしないでください
STEP 3:具体的な問いを立てて深掘りする
基本分析の後、以下のような具体的な問いで深掘りする:
先ほどのデータで追加分析をお願いします。 分析したい問い:「[具体的なビジネス課題]が起きている原因を、データから特定できる範囲で教えてください」 例:「先月の売上が前月比-15%になった原因を、商品カテゴリ別・チャネル別・地域別に分解して、どこに主因があるか教えてください」 注意事項: - データで分かることと分からないことを明確に区別してください - 追加で取得・確認が必要なデータがあれば教えてください - 次のアクションとして優先的に確認すべきことを3つ提案してください
STEP 4:月次レポートを自動化する
毎月同じ分析をする場合は、プロンプトをテンプレート化してClaude/ChatGPTに保存しておく:
月次売上レポート生成プロンプト(テンプレート) アップロードしたCSV([月]月の売上データ)を使って、以下の月次レポートを生成してください: 1. エグゼクティブサマリー(3行) - 今月の最重要な数字1つ - 先月・前年同月との比較 - 次月に注意すべきリスク・機会 2. 商品別パフォーマンス(上位5件・下位5件) 3. 主要KPIのトレンドグラフ(月次推移) 4. 来月の施策提案(データに基づく仮説3つ) ※各提案に「根拠となるデータの箇所」を明示すること 出力フォーマット:マークダウン形式でコピーしてそのまま使えるレポートとして
「AIデータ分析の導入設計・ツール選定・データ基盤の構築相談をしたい」方はLIFRELLへ。自社で実践してきたノウハウをもとにサポートします。
5業種・目的別の選定マトリクス
競合記事が全員書いていない、実務で使える選定基準を整理する。
目的別の選定
| 目的 | 推奨ツールカテゴリ | 具体的なツール | 月額費用感 |
|---|---|---|---|
| アドホック分析(その都度) | 対話型AI | ChatGPT・Claude | 2,000〜3,000円/ユーザー |
| 売上・KPIの継続モニタリング | BIツール | Power BI・Looker Studio | 無料〜数万円/月 |
| 需要・売上の予測 | 予測分析ツール | Prediction One・DataRobot | 要見積もり |
| 異常検知・品質管理 | 機械学習特化 | Prediction One・AutoML | 要見積もり |
| 全社的なデータ統合・ガバナンス | エンタープライズBI | Tableau・Looker・Domo | 数十万円/月〜 |
| 定期レポートの自動化 | AIエージェント型 | SrushAI・Tableau Pulse | 要見積もり |
企業規模別の推奨スタート
| 企業規模 | 推奨スタート | 理由 |
|---|---|---|
| 1〜20名 | ChatGPT/Claude(有料プラン)+Looker Studio(無料) | コスト最小。まずAIに慣れる |
| 20〜100名 | Power BI(月額約1,400円/ユーザー) | Microsoft 365環境との相性抜群 |
| 100〜500名 | Tableau または Looker | 大量データ・複雑なダッシュボードに対応 |
| 500名以上 | エンタープライズBI+データウェアハウス | 全社データ統合基盤が必要 |
業種別の注意点
| 業種 | 向いているツール・用途 | 注意すべき規制・要件 |
|---|---|---|
| 小売・EC | 需要予測・顧客セグメント・在庫最適化 | 個人情報保護・データ保存場所の確認 |
| 製造業 | 品質異常検知・設備故障予測・需要予測 | IoTセンサーデータとの統合が必要な場合がある |
| 金融・保険 | リスク分析・不正検知・顧客分析 | 金融規制・説明責任(XAI)対応必須 |
| 医療・ヘルスケア | 患者データ分析・業務効率化 | HIPAA相当のセキュリティ・オンプレ要件 |
| マーケティング | 広告効果測定・顧客LTV予測・チャーン予測 | 個人情報の利用範囲に注意 |
| 人事・採用 | 離職予測・採用効果分析 | バイアス問題・公平性への配慮が必要 |
6主要12ツールの正直な比較
競合記事は全員「このツールは素晴らしいです」で終わっている。強みと弱点を正直に書く。
対話型AI(汎用LLM)
ChatGPT(OpenAI)
- 強み: Advanced Data AnalysisでCSVを直接分析・グラフ化。Code Interpreterで複雑な分析も可能。月額$20で個人が使える
- 正直な弱点: 大量データの処理に上限がある。企業データをOpenAIサーバーに送ることへのセキュリティ懸念(Enterprise版で対応可)
- 向いているケース: 個人・小チームのアドホック分析・プロトタイプ検証
Claude(Anthropic)
- 強み: 非常に長いコンテキスト(最大20万トークン)で大きなデータセットを一度に処理。論理的な分析と説明が得意。セキュリティへの配慮が高い
- 正直な弱点: Pythonコードの実行機能はChatGPTと比較して限定的(執筆時点)
- 向いているケース: 大量のテキストデータ分析・レポートの解釈・戦略的な示唆の抽出
BIツール(BI + AI)
Power BI(Microsoft)
- 強み: Microsoft 365・Azure・ExcelとのシームレスなエコシステムがNo.1の強み。Copilot統合で自然言語クエリに対応。月額約1,400円/ユーザー(Microsoft 365に含まれる場合も)というコスパ
- 正直な弱点: Microsoft環境外との連携はやや複雑。高度なカスタマイズにはDAX(専用言語)の学習が必要
- 向いているケース: Microsoft 365環境を使っている企業・中小〜中堅企業のKPIモニタリング
Tableau(Salesforce)
- 強み: データ可視化のクオリティが業界最高水準。2026年のエージェンティックAI搭載で自律的な多段階分析が可能。エンタープライズ規模のガバナンス機能
- 正直な弱点: コストが高い(月額$75/ユーザー〜)。習得に時間がかかる
- 向いているケース: 大企業・データの可視化品質を最重視する企業・Salesforce利用企業
Looker Studio(Google)無料版
- 強み: 完全無料。Google Analytics・BigQuery・Google Sheetsとの連携が最強。外部への共有・埋め込みが簡単
- 正直な弱点: 機能が限定的。大量データの処理は遅い。高度な分析にはLooker(有料版)が必要
- 向いているケース: Google系ツールを使っているスタートアップ・中小企業のコスト重視ダッシュボード
Looker(Google Cloud)
- 強み: BigQueryとの完全統合で大規模データを高速処理。Gemini連携でAI分析。マルチクラウド対応
- 正直な弱点: 高額・BigQuery環境が必要
- 向いているケース: Google Cloud環境のエンタープライズ
予測分析ツール
Prediction One(ソニー)
- 強み: 日本語UIで使いやすい。プログラミング不要でデータをアップロードするだけで予測モデルを自動構築。無料版あり。需要予測・顧客離反予測に実績豊富
- 正直な弱点: 予測分析に特化(ダッシュボード機能は限定的)
- 向いているケース: 日本の中小〜中堅企業で予測分析を始めたい場合。コスパ最高
DataRobot
- 強み: 機械学習の自動化(AutoML)で最高精度のモデルを自動生成。説明可能AI(XAI)機能が充実
- 正直な弱点: 高額(エンタープライズ向け)・小規模利用には過剰
- 向いているケース: 予測精度を最重視する大企業・規制業界
対話型・エージェント型
SrushAI
- 強み: 「先月の売上は?」という自然な質問に即時で視覚的なレポートを生成。複数のデータソースを横断して分析するAIエージェント機能
- 向いているケース: データサイエンティストなしで自然言語でデータ分析したい日本企業
Domo
- 強み: リアルタイムのデータ統合。モバイル対応のダッシュボード。800以上のデータコネクター
- 正直な弱点: 高額・導入工数が大きい
- 向いているケース: 多数のデータソースを統合してリアルタイムで経営判断したい大企業
7「分析して終わり」にならない——アクション設計の方法
競合記事が全員書いていないが実務で最も重要なセクションだ。
分析結果が出ても「それで何をすればいいか分からない」「レポートは作られるが誰も見ていない」という状態が多くの企業で起きている。
アクション設計の3原則
原則1:分析を始める前に「誰が・何の判断に・いつ使うか」を決める
分析の依頼を受けたとき(または自分でやるとき)に必ず答える:
アクション設計テンプレート: 分析タイトル:[何を分析するか] ビジネス課題:[この分析で解決したい課題を1文で] 意思決定者:[この分析結果を見て判断するのは誰か] 判断のタイミング:[いつまでに・どのタイミングで判断が必要か] 期待するアクション:[分析結果によってどんな施策を打つか(複数候補)] 成功の定義:[この分析が成功した場合、何がどう変わるか] 分析に必要なデータ:[何のデータが必要か] データは存在するか:[Yes/No・品質は十分か]
原則2:「閾値ルール」を事前に決める
「AIが〇〇だと言ったら施策Aを打つ」という閾値ルールを分析前に決めておく。これがないと分析結果を見てから「じゃあどうしよう」という会議になり時間が無駄になる。
例:「翌月の需要予測が先月比-20%を下回ったら在庫発注量を30%削減する」
原則3:アクション後の「効果検証」サイクルを設計する
施策を打った後に「効果があったか」を確認するためのデータ収集と次回の分析タイミングを事前に設計する。これがないとAIデータ分析は「コスト」になるだけで「投資」にならない。
「AIデータ分析の導入設計・ツール選定・データ基盤の構築相談をしたい」方はLIFRELLへ。自社で実践してきたノウハウをもとにサポートします。
8データセキュリティと個人情報——重要な注意点
競合記事が軽視しているが、実務で最重要のポイントだ。
AIツールへのデータ入力の注意点
ChatGPT・Claude等の汎用AIにアップロードしてはいけないデータ:
- 顧客の氏名・連絡先・購入履歴(個人識別情報)
- 従業員の個人情報(人事データ)
- 機密のビジネスデータ(未公開財務情報・M&A情報等)
- 法的に保護されたデータ(医療情報・金融情報等)
対策:
- 個人情報は必ず匿名化・仮名化してからアップロード
- Enterprise版(ChatGPT Enterprise・Claude for Enterprise)を使って「データが学習に使われない」設定を確認
- 社内にセキュアなデータ分析環境(オンプレミス・国内データセンター)を検討
規制業界での要件
- 金融: 金融庁のガイドライン・監査証跡の確保が必要
- 医療: 医療法・個人情報保護法に基づくデータ管理
- 公共: LGWANなど専用ネットワーク対応が必要な場合がある
9費用対効果——正直な試算
競合記事が誰も書いていないROI計算を整理する。
コスト構成
| 費目 | 相場 | 注意点 |
|---|---|---|
| ツールライセンス | 月額3,000円〜数十万円 | 規模によって大きく差がある |
| データ整備・クレンジング | 社内工数50〜200時間 | 見えないコストだが最大のコスト |
| 初期設定・ダッシュボード構築 | 社内工数50〜200時間または外注50〜500万円 | 複雑なBI構築は外注が現実的 |
| 研修・リテラシー向上 | 1人あたり10〜30時間 | データリテラシーなしでは使われない |
| 継続的な運用・改善 | 月10〜30時間の担当者工数 | 「入れて終わり」が最大の無駄 |
費用対効果の試算例
【中小企業・月次売上レポートの自動化ケース】 現状:月次レポートに担当者が20時間/月かけている 時給換算:3,000円/時間 × 20時間 = 60,000円/月のコスト ChatGPT Plus導入後:レポート作成が5時間/月に削減 削減工数:15時間 × 3,000円 = 45,000円/月の削減 ツールコスト:3,000円/月 月間純削減額:42,000円/月 年間削減額:504,000円/年 ROI = (504,000 - 36,000) / 36,000 × 100 = 1,300% → ツール費用の13倍の効果 【注意:このROI計算には「データ整備」の初期工数コストが含まれていない】 データ整備に100時間かかった場合:100時間 × 3,000円 = 300,000円の初期投資 損益分岐点:300,000 ÷ 42,000 ≈ 7.1カ月
10導入ステップ——失敗しない進め方
STEP 1:データの棚卸し(1〜2カ月)
何よりも先に「自社に何のデータがあるか」「品質はどうか」を確認する:
データ棚卸しチェックリスト: □ どのシステム・Excelにどんなデータがあるか一覧化した □ 列名・フォーマットが統一されているか確認した □ 欠損値・異常値の程度を確認した □ 分析したい課題とデータが紐づいているか確認した □ 個人情報の取り扱いポリシーを確認した □ データの最終更新日・更新頻度を確認した
STEP 2:小さく始める(1〜3カ月)
一つのユースケースで始める。推奨は「月次レポートの自動化」または「特定KPIのダッシュボード化」:
スモールスタートの選定基準: ✓ データが既に存在する(新たなデータ収集が不要) ✓ 毎月・毎週繰り返される定型作業である ✓ 担当者が明確で、分析結果の活用者が決まっている ✓ 効果測定が容易(工数削減・精度向上等で計測できる) ✗ 複数部門のデータ統合が必要 ✗ 全く新しいKPIの定義が必要 ✗ 意思決定プロセスの変更が必要
STEP 3:効果を数値化して展開判断(3〜6カ月後)
スモールスタートの3〜6カ月後に効果を数値化する:
- 工数削減時間
- 分析精度の向上(例:需要予測の誤差率)
- 意思決定スピードの向上
- 施策効果(AIの示唆に基づいた施策のROI)
この数字が出てから全社展開か追加投資かを判断する。
11よくある質問(FAQ)10問
Q1. Excelで足りないのか?AIデータ分析ツールが必要なのか?
Excelが向いているのは:数百行程度のデータ・手動での定型集計・小チームでの共有。AIデータ分析ツールが必要になるのは:数万行以上のデータ・複数ソースのデータ統合・定期的な自動レポート・予測分析・異常検知。まずExcelに限界を感じてから次を検討するのが現実的だ。
Q2. データサイエンティストなしでAIデータ分析ツールを使えるか?
ChatGPT/Claude等の対話型AIとPower BI等のノーコードBIツールは、プログラミングなしで使えるものが増えている。ただし「どの分析をすべきか」「分析結果をどう解釈するか」という判断は人間のビジネス知識が必要だ。ツールが分析を代行してもビジネス解釈は人間がする。
Q3. 機密データをChatGPTに入れても大丈夫か?
標準版のChatGPTに機密情報・個人情報を入力することはリスクがある。ChatGPT Enterprise(月額$60/ユーザー〜)またはAzure OpenAI Serviceを使えば、データが学習に使われない契約が可能だ。Claude for Enterpriseも同様。「まずどこのサーバーにデータが送られるか」を必ず確認する。
Q4. Power BIとTableauのどちらを選ぶべきか?
Microsoft 365環境がある → Power BIを強く推奨(コスパ最高・エコシステム統合)。Salesforce環境がある → Tableau。Google Cloud/BigQuery環境 → Looker。どちらでもない中小企業 → まずLooker Studio(無料)で始める。
Q5. 「予測分析」と「BI」は何が違うか?
BIは「過去に何が起きたか」を可視化するツール。予測分析は「未来に何が起きるか」を予測するツール。例:BIは「先月の売上推移をグラフで見る」、予測分析は「来月の売上を過去データから予測する」。両方が必要な場合は、BI+予測分析ツールを組み合わせる。
Q6. AIデータ分析ツールの導入にどのくらいの期間がかかるか?
ChatGPT/Claude等の対話型AIは今日から使える。Power BI等のBIツールは基本的なダッシュボード構築に1〜3カ月。予測分析ツールの導入・モデル構築には3〜6カ月。全社的なデータ基盤構築は6カ月〜2年。導入期間の大半は「データ整備」に費やされる。
Q7. 無料で使えるツールはあるか?
Looker Studio(Google)→ 完全無料でBIダッシュボードを構築できる。Prediction One→ 無料版あり(機能制限)。ChatGPT→ 無料版でもCSVの簡単な分析が可能(有料版でより高度な機能)。Power BI Desktop→ 無料(クラウド共有機能は有料)。まず無料ツールで3カ月試してから有料ツールを検討する。
Q8. 日本製のAIデータ分析ツールはあるか?
Prediction One(ソニー)は日本製で日本語UIが充実・予測分析に特化。SrushAI(Srush)は日本製の対話型AIデータ分析エージェント。日本語サポート・日本の規制への対応が重要な場合は日本製ツールのアドバンテージがある。
Q9. AIが出した分析結果は信頼できるか?
「信頼できる」かどうかは「何を期待しているか」による。大量データから素早くパターンを発見すること、繰り返し作業の自動化、基本的な統計分析 → 高精度で信頼できる。因果関係の特定、精度保証が必要な重要意思決定、未知のビジネス文脈の判断 → AIの結果を「仮説」として扱い、必ず人間が検証する。
Q10. 「データドリブン経営」と「感覚・経験」はどちらが正しいか?
二項対立で考える必要はない。データは「事実の確認」と「仮説の検証」に使い、戦略的な判断・創造的な発想・人間関係の判断は経験と直感を使う。最も危険なのは「AIがこう言ったから」という思考停止だ。AIの分析結果は意思決定の「材料」であり「答え」ではない。
まとめ——AIデータ分析ツール導入で成果を出す3原則
原則1:「データの品質」が全ての前提だ
ツール選びより先にデータ整備。Gartnerが指摘する通り、AIに適したデータがなければどんな高価なツールも無駄になる。
原則2:「分析の目的」と「アクション設計」を先に決める
「何のために」「誰が」「いつ」「どう使うか」を先に定義する。分析後にアクションを考えるのではなく、アクションから逆算して分析を設計する。
原則3:「相関≠因果」を常に意識する
AIが発見した相関を因果関係として経営判断に直結させてはいけない。AIの分析結果は「仮説」。A/Bテストや小規模検証で確認してから本格展開する。
「AIデータ分析の導入設計・ツール選定・データ基盤の構築相談をしたい」方は、LIFRELLへ無料相談を。
AIデータ分析の「何から始めるか」
一緒に設計します
データの棚卸し・ツール選定・アクション設計・ROI試算まで、LIFRELLがマーケティング実務の視点でサポートします。「まず現状を整理したい」だけでも歓迎です。
