生成AIパスポートの公式のシラバスに完全準拠したまとめページです。気になるキーワード、復習したいキーワードをクリックするとWeb教科書の該当箇所に飛べるようになっています!活用ください。
参考(生成AIパスポート公式シラバス2026年2月版):https://guga.or.jp/assets/syllabus.pdf
AI(人工知能)の定義
1. AIとは
AI(人工知能)とは、コンピュータに人間と同様の知的な振る舞いを実現させる技術・研究分野の総称です。「Artificial Intelligence(人工知能)」という言葉は、1956年に開催されたダートマス会議においてジョン・マッカーシーらが提唱したのが起源です。
現在も国際的に統一された定義は存在せず、「コンピュータを使って人間の知的活動(学習・推論・判断・言語理解など)を再現しようとする技術全般」と広義に理解されています。
💡 ダートマス会議とは:1956年夏、アメリカ・ダートマス大学で開催された学術研究会議。ジョン・マッカーシー、マービン・ミンスキー、クロード・シャノンらが「人工知能(Artificial Intelligence)」という言葉を初めて公式に使用した、AI研究の出発点とされる歴史的な会議。
2. AIとロボットの区別
AIは「ソフトウェア(知的処理を行うプログラム)」であり、ロボットは「センサーとアクチュエータを持つ物理的な機械」です。この2つは異なる概念です。ロボットにAIを搭載した「AIロボット」は存在しますが、すべてのロボットにAIが入っているわけでも、すべてのAIがロボットに使われているわけでもありません。
| 説明 | AI(人工知能) | ロボット |
|---|---|---|
| 本質 | ソフトウェア・アルゴリズム | 物理的な機械 |
| 形 | 物理的な形を持たない | センサーとアクチュエータを持つ |
| 例 | 音声アシスタント・翻訳システム・画像認識エンジン | 産業用ロボット・AIを搭載しないものも多い |
3. AIの研究
AI研究は大きく2方向に分けられます。
- 応用研究(弱いAI / ANI):特定タスクに特化したAIの開発。現在実用化されているAIはすべてこちら
- 基礎研究(強いAI / AGI):人間と同等のあらゆる知的能力を持つ汎用AIを目指す研究。現時点では未実現
AIに知能をもたらす仕組み
4. 知能をもたらす2つの仕組み
AIが「知的な振る舞い」をするための仕組みは、大きく2つに分けられます。
| 説明 | ルールベース | 機械学習 |
|---|---|---|
| ルールの作り方 | 人間が手動で設計・記述する | データから自動で学習する |
| 強み | 説明可能・予測可能・少ないデータで動作 | 複雑なパターンを発見できる |
| 弱み | 想定外の状況に対応できない・知識獲得コストが高い | 大量データが必要・解釈が難しい |
5. ルールベースとは
「もし〇〇なら△△する」という条件分岐(if-then ルール)を人間が事前に設計し、AIに知的な振る舞いをさせるアプローチです。初期のAIシステムや第二次AIブームのエキスパートシステムで広く採用されました。
💡 わかりやすい例:迷惑メールフィルターを「件名に”無料”が含まれる → 迷惑メールフォルダへ移動」というルールで動かすイメージ。新種のスパムが来ても、ルールに書いていなければ対応できません。
6. 機械学習とは
大量のデータを与えることで、AIがデータの中にあるパターンや規則を自動的に発見する技術です。人間がルールを書く代わりに、AIが「経験(データ)」から自力でルールを獲得します。学習を終えたモデルを学習済みモデルと呼び、新しいデータへの推論に使います。
7. 機械学習の手法
機械学習には主に4つの手法があります。使用するデータの種類(正解ラベルの有無)と学習目的によって使い分けます。
| 手法 | 概要 | 代表例 |
|---|---|---|
| 教師あり学習 | 正解ラベル付きデータで学習。入力→出力のマッピングを学ぶ | 画像分類・スパム検出・価格予測 |
| 教師なし学習 | 正解ラベルなしでデータの構造・パターンを自力で発見する | クラスタリング・次元削減 |
| 強化学習 | 試行錯誤を繰り返し、報酬を最大化する行動を学ぶ | 囲碁・チェスのゲームAI・自動運転 |
| 半教師あり学習 | 少量のラベルありデータと大量のラベルなしデータを組み合わせる | ラベル付けコストを抑えた分類タスク |
💡 教師なし学習の主な手法
ノーフリーランチ定理
「すべての問題に対して万能なアルゴリズムは存在しない」という定理。どんなに優れたアルゴリズムも、ある問題では優れている一方で別の問題では劣ります。問題の性質に合った手法を選ぶことが重要です。David H. Wolpert と William G. Macready が1997年に証明しました。
💡 ノーフリーランチ定理のポイント:「万能のアルゴリズムは存在しない。タスクに合わせて適切な手法を選ぶことが重要」と覚えてください。試験では定理の意味を問われます。
8. 機械学習の考え方
機械学習において、予測に有効な入力データの属性・特性のことを特徴量(feature)と呼びます。
- 古典的機械学習:人間が特徴量を設計する必要がある(特徴エンジニアリング)
- ディープラーニング:AIが自動的に有効な特徴量を学習する(End-to-End学習)
これがディープラーニングの大きな革新のひとつです。
9. 人間の脳とニューラルネットワーク
人間の脳は約860億個のニューロン(神経細胞)がシナプス(神経接続部)を介して繋がった巨大なネットワークです。このネットワーク構造をコンピュータ上に模倣したのがニューラルネットワークです。
- 人工ニューロン(ノード):ニューロンに相当する計算単位。複数の層に並んで配置される
- 重み(weight):ノード間の接続に設定された数値。その接続がどれだけ重要かを示す
- 情報の重みづけ:重みを調整することで重要な入力を強く、不要な入力を弱く伝える仕組み
- ディープラーニング(深層学習):ニューラルネットワークを何層も深く重ねた手法。層が増えるほど抽象的な特徴を自動学習できる
💡 「重み」をわかりやすく言うと:学習とは「予測が外れたとき、重みを少しずつ修正してより正解に近づけるプロセス」です。人間が「重要な知識をより強く記憶する」のに似ています。
10. AIが画像を認識する仕組み
ディープラーニングを使った画像認識では、ニューラルネットワークが画像を階層的に処理します。
- 浅い層:縦線・横線・曲線などの「エッジ(輪郭)」を検出
- 中間の層:エッジを組み合わせて「目・鼻・耳」などのパーツを検出
- 深い層:パーツを統合して「犬の顔」「車」などの物体として認識
層を重ねることで生のピクセルデータから意味のある概念まで自動的に学習できるのがディープラーニングの強みです。
11. AIが自ら学習して改善される仕組み
AIの学習は「予測 → 誤差計算 → 重みの修正」の繰り返しで行われます。
- 入力データを与えて予測値を出力する(フォワードパス)
- 予測値と正解(教師データ)の誤差(ロス)を計算する
- 誤差が小さくなるよう各層の重みを後ろから逆方向に修正する(誤差逆伝播法)
- 上記を大量のデータで繰り返すことで精度が向上する
この自動的な重みの更新により、人間が明示的にルールを書かなくても、AIはデータから「判断の仕方」を自ら獲得できます。
12. 過学習(オーバーフィッティング)
過学習(オーバーフィッティング)とは、AIが学習データに過度に適合しすぎた結果、未知のデータに対して正確な予測ができなくなる現象です。
→「教科書の問題は完璧に解けるが、応用問題・実戦では全く対応できない」状態に例えられます。
💡 試験ポイント:過学習は「訓練データでの精度は高いが、未知データでの精度(汎化性能)が低い」状態です。「汎化性能が低下している」とも表現されます。
13. 過学習を避ける手法
過学習を防ぐ代表的な手法として正則化とドロップアウトがあります。
- 正則化:重みが過度に大きくなることにペナルティを課す技術。特定パターンへの過剰な依存を抑え、汎用的なモデルを作る。代表例にL1正則化(Lasso)・L2正則化(Ridge)がある
- ドロップアウト:学習中にランダムで一部のノードを一時的に無効化する技術。特定ノードへの過依存を防ぎ、複数の経路で問題を解く汎用的なモデルを作る
14. 転移学習
転移学習とは、あるタスクで大量のデータを使って学習した学習済みモデルの知識を、別の新しいタスクに流用・適応させる技術です。ChatGPTなどの大規模言語モデルで行われるファインチューニングもこの一種です。
- 学習に必要なデータ量を大幅に削減できる
- 学習コスト(計算時間・費用)を抑えられる
- 少ないデータでも高い精度を達成しやすい
AIの種類
15. AIの4つのレベル
試験頻出。上位ほど高度で、特徴量を人間が設計するかAIが自動で学習するかが分岐点のひとつとなる。
- 単純な制御プログラム:条件分岐のみ。エアコンの自動温調など。「AIっぽく見える」製品も多いが知能とは呼べないとする見方もある
- 古典的な機械学習:人間が特徴量を設計してAIが学習する。迷惑メールフィルターなど
- ディープラーニング:AIが特徴量を自動で学習する。画像認識・音声認識・自然言語処理など。現代AIの主流
- 汎用AI(AGI):あらゆる知的タスクを人間と同等以上にこなせるAI。現時点では未実現
16. 弱いAI(ANI)と強いAI(AGI)
| 説明 | 弱いAI(ANI) | 強いAI(AGI) |
|---|---|---|
| 正式名称 | Artificial Narrow Intelligence | Artificial General Intelligence |
| 定義 | 特定のタスクに特化したAI | 人間と同等のあらゆる知的タスクをこなせる汎用AI |
| 現状 | 現在普及しているAIはすべてこちら | まだ実現していない |
| 例 | ChatGPT・画像認識・翻訳・AlphaGo | SF上の汎用AI |
💡 注意:哲学者ジョン・サールが提唱した「弱いAI / 強いAI」(思考の真正性に関する哲学的議論)とは異なる文脈で使われます。試験ではANI=特化型 / AGI=汎用型として理解してください。
AIの歴史
17. 第一次AIブーム
時期:1950〜1960年代
コンピュータによる探索(迷路やゲームの解法を探す)と推論(論理ルールを使って結論を導く)技術が発展。チェスのプログラムや数学の定理証明などが実現し、世界はAIに熱狂しました。
→ 「複雑な現実問題には対応できない」という限界が露わになり、研究資金が削減されてAIの冬(第一次停滞期)へ。
18. 第二次AIブーム
時期:1980年代
専門家の知識をIF-THENルールで記述し、推論エンジンで問題を解くエキスパートシステムが台頭。医療診断・法律判断・化学分析など多くの分野に応用されました。
→「ルールの追加・更新コストの爆発」「常識知識の扱い」に限界が生じ、再びAIの冬(第二次停滞期)へ。
💡 エキスパートシステムとは:専門家(エキスパート)の知識をIF-THENルールで記述し、推論エンジンで問題を解くシステム。第二次AIブームの主役だったが、知識獲得のボトルネック問題で衰退した。
19. 第三次AIブーム
時期:2010年代〜現在
インターネットの普及で蓄積された膨大なビッグデータと、GPU(画像処理装置)による計算能力の飛躍的向上を背景に、ディープラーニングが劇的に進歩しました。
- 2012年の画像認識コンペティションILSVRCでAlexNetが圧倒的な精度を叩き出したことが転換点
- 2016年にはAlphaGoが囲碁プロ棋士に初勝利
- 2022年以降のChatGPT登場で生成AIブームが加速
シンギュラリティ(技術的特異点)
20. シンギュラリティ(技術的特異点)
AIが人間の知能を超え、AIが自律的に自分自身よりも賢いAIを設計・改善し続けることで技術が爆発的に発展し、人類の文明・社会が根本的に変容する「仮説上の転換点」のことです。試験では「技術的特異点」という言い方も出ます。
| キーワード | 説明 |
|---|---|
| ヴァーナー・ヴィンジ | SF作家・数学者。1993年の論文「The Coming Technological Singularity」でシンギュラリティの概念を広く紹介した人物 |
| レイ・カーツワイル | 発明家・未来学者。著書『The Singularity Is Near』(2005年)でシンギュラリティを2045年頃と予測した |
| 2045年問題 | 2045年頃にAIが人間の全知能を超え、その後の社会変化が予測不能になるとする議論・懸念。カーツワイルの予測に基づく |
| AI効果 | AIが特定のタスクを達成すると「それは本当の知能ではない」と評価が下がる現象。ジョン・マッカーシーが指摘。知能の定義が常に後退し続けるため「AIは永遠に知能に達しない」という逆説になる |
💡 試験ポイント:シンギュラリティはあくまで仮説・予測です。「概念の定義」「ヴァーナー・ヴィンジ(概念の紹介者)」「レイ・カーツワイル(2045年予測)」「2045年問題」「AI効果」の5つを押さえてください。
生成AIの誕生まで
1. 生成モデルの誕生
生成AI(ジェネレーティブAI)とは、テキスト・画像・音声・動画などのコンテンツを新たに生成することができるAIの総称です。生成AIの根幹にある「生成モデル」は、データの分布を学習し、そこから新しいデータをサンプリング(生成)する仕組みです。
生成モデルの発展は複数のアーキテクチャの登場によって進んできました。
- ボルツマンマシン:1985年にHintonらが提案した確率的なニューラルネットワーク。データの確率分布を学習できる初期の生成モデル
- 制約付きボルツマンマシン(RBM):ボルツマンマシンを単純化し、層間のみの接続に制限したモデル。学習効率が大幅に向上し、ディープラーニングの事前学習に活用された
💡 生成AI(ジェネレーティブAI)のポイント:「識別AI(入力を分類・判定する)」と対比して理解するとわかりやすい。生成AIはデータを「作り出す」AI、識別AIは入力を「判定する」AIです。
2. 自己回帰モデルとディープラーニング
自己回帰モデルとは、過去の出力を入力として次の出力を予測するモデルです。「前の単語から次の単語を予測する」テキスト生成はこの仕組みに基づいており、GPTシリーズもこのアプローチを採用しています。
ディープラーニングの発展とともに、自己回帰モデルは飛躍的に精度が向上し、現在の大規模言語モデル(LLM)の基盤となっています。
3. CNN(畳み込みニューラルネットワーク)
CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)は、画像認識に特化したニューラルネットワークです。畳み込みという演算を使って、画像の局所的な特徴(エッジ・テクスチャ・形状など)を階層的に抽出します。
1989年にYann LeCunが提案し、2012年のAlexNetによる画像認識コンテスト優勝でディープラーニングブームの火付け役となりました。画像生成AI(Stable Diffusionなど)にも応用されています。
💡 畳み込みとは:画像の小さな領域(フィルター)をスライドさせながら特徴を抽出する演算。「特定のパターンがどこにあるか」を効率的に検出できます。
4. VAE(変分自己符号化器)
VAE(Variational Autoencoder:変分自己符号化器)は、データを圧縮して潜在空間に表現し、そこから新しいデータを生成できる生成モデルです(Kingma & Welling, 2013)。
- エンコーダ:入力データを圧縮して潜在ベクトル(データの本質的な特徴を表す低次元のベクトル)に変換する部分
- デコーダ:潜在ベクトルから元のデータ(または新しいデータ)を復元・生成する部分
- ノイズ:VAEでは潜在空間にノイズ(ランダム性)を加えることで、多様なデータを生成できる
💡 VAEをわかりやすく言うと:「データを圧縮(エンコード)して本質を取り出し、そこから新しいデータを作り出す(デコード)」仕組みです。画像の特徴を潜在空間で操作することで、新しい画像を生成できます。
5. GAN(敵対的生成ネットワーク)
GAN(Generative Adversarial Network:敵対的生成ネットワーク)は、Ian Goodfellowらが2014年に提案した生成モデルです。2つのネットワークが「競い合う」ことで高品質なデータを生成します。
| 役割 | 説明 |
|---|---|
| 生成器(Generator) | ランダムなノイズから偽物のデータ(画像など)を生成する。識別器を騙すことを目標とする |
| 識別器(Discriminator) | 入力が「本物」か「生成器が作った偽物」かを見分ける。精度を上げることを目標とする |
この2つが互いに競い合う(敵対する)ことで、生成器はより本物らしいデータを作れるように、識別器はより正確に見分けられるように成長します。ディープフェイク生成技術の基盤にもなっています。
💡 GANの覚え方:「贋作師(生成器)と鑑定士(識別器)が互いに腕を磨き合う」イメージ。この競争によって生成器は本物そっくりの偽物を作れるようになります。
6. RNN(回帰型ニューラルネットワーク)
RNN(Recurrent Neural Network:回帰型ニューラルネットワーク)は、時系列データや文章のような「順序のあるデータ(シーケンスデータ)」を処理するために設計されたネットワークです。
- 隠れ層:前のステップの出力を次のステップへ引き継ぐ仕組みを持つ層。これにより「文脈」を記憶できる
- リカレント層:過去の情報を循環的に保持するRNN特有の層
- シーケンスデータ:文章・音声・時系列データなど、順序に意味がある連続したデータ
ただし、系列が長くなると「勾配消失問題」により遠い過去の情報を保持できなくなる弱点があります。
7. LSTM(長・短期記憶)
LSTM(Long Short-Term Memory:長・短期記憶)は、RNNの勾配消失問題を解決するために1997年にHochreiterとSchmidhuberが提案したモデルです。「ゲート機構」により、長期的な依存関係を学習できます。
- 入力ゲート・忘却ゲート・出力ゲートの3つのゲートで情報の流れを制御する
- 「重要な情報は長く保持、不要な情報は忘れる」という人間の記憶に近い仕組み
- 翻訳・音声認識・テキスト生成などに広く活用された(Transformer登場前の主流)
8. Transformerモデル
Transformerは、2017年にGoogleの研究チームが論文「Attention is All You Need」で発表した革命的なアーキテクチャ(モデルの構造・設計)です。現在のほぼすべての大規模言語モデル(LLM)の基盤となっています。
- Attention Mechanism(注意機構):文章中のすべての単語が互いにどれだけ関連しているかを計算する仕組み。「この単語を理解するには、文章中のどの単語に注目すべきか」を学習する
- 自己注意力(Self-Attention):Attention Mechanismを同一シーケンス内の要素間に適用したもの。文章内の単語同士の関係を捉える
- Attention層:Self-Attentionを実装したネットワークの層
- 位置エンコーディング:Transformerには単語の順序を認識する仕組みがないため、各単語の位置情報を数値として付加する技術
💡 Transformerが革命的な理由:RNN・LSTMは文章を「左から右へ順番に」処理するため時間がかかりました。Transformerは文章全体を一度に並列処理でき、大規模なGPUを最大限に活用できます。これが大規模言語モデルの実現につながりました。
9. Transformer登場以後の派生モデルの系譜
Transformerの登場(2017年)以降、派生モデルが次々と生まれました。
| モデル | 開発元 | 特徴 |
|---|---|---|
| GPTモデル | OpenAI | Transformerのデコーダ部分を使った自己回帰型言語モデル。テキスト生成に特化。GPT-1(2018年)が起点 |
| BERTモデル | Transformerのエンコーダ部分を使った双方向言語モデル(2018年)。文章理解・分類タスクに強い | |
| RoBERTa | Meta(Facebook)AI | BERTをより大きなデータ・より長い学習で改良したモデル(2019年) |
| ALBERT(a Lite BERT) | BERTのパラメータを削減して軽量化したモデル(2019年)。精度を保ちつつ実用性を向上 |
💡 BERTの学習手法
- MLM(Masked Language Model:マスク言語モデル):文章の一部の単語を隠し(マスクし)、それを予測させる学習方法。文章の文脈理解を学ぶ
- NSP(Next Sentence Prediction):2つの文が連続する文かどうかを予測させる学習方法。文章間の関係を学ぶ
ChatGPT
10. ChatGPTとは
ChatGPTは、OpenAIが2022年11月に公開した対話型テキスト生成AIです。GPT系列の大規模言語モデルを基盤とし、RLHFによる調整を加えることで、自然な会話・文章生成・質問応答などを実現しました。公開から5日でユーザー数100万人を突破し、生成AIブームの火付け役となりました。
💡 重要キーワード:自然言語処理(NLP:Natural Language Processing)とは、コンピュータが人間の言葉(自然言語)を理解・生成するための技術の総称。ChatGPTをはじめとする大規模言語モデルはNLPの集大成といえます。
11. 対話型AIの変遷とChatGPTの歴史
| モデル | 時期 | パラメータ数・特徴 |
|---|---|---|
| GPT-1 | 2018年 | 約1.17億パラメータ。Transformerデコーダを使った初のGPTモデル。大規模テキストデータでの事前学習(プレトレーニング)+ファインチューニングの枠組みを確立 |
| GPT-2 | 2019年 | 約15億パラメータ。GPT-1から大幅にスケールアップ。精度が高すぎて悪用懸念から当初は完全公開を見送った |
| GPT-3 | 2020年 | 約1,750億パラメータ。当時最大規模のモデル。少数の例示だけで多様なタスクをこなすFew-Shot学習能力を発揮 |
| InstructGPT | 2022年初頭 | GPT-3にRLHFを適用して指示に忠実に従うよう改良。ChatGPTの直接の前身 |
| GPT-3.5 | 2022年11月 | ChatGPTの初期バージョンに採用。対話に最適化されたモデル |
💡 パラメータとは:ニューラルネットワーク内の重みの総数。パラメータ数が多いほど複雑なパターンを学習できるが、計算コストも増大する。GPT-3の1,750億は当時の常識を覆すスケールでした。
12. RLHF・アライメント・ファインチューニング・ハルシネーション
RLHF(Reinforcement Learning from Human Feedback)
人間のフィードバック(評価・ランキング)を報酬として強化学習を行い、モデルの出力を人間の意図・価値観に合わせる手法。ChatGPTの高品質な応答を実現した中心技術です。
アライメント(Alignment)
AIの目標・行動を人間の意図・価値観に整合させること。RLHFはアライメントを実現するための手法のひとつです。「AIが人間の望む結果を出力するよう調整する」取り組み全般を指します。
ファインチューニング(Fine-tuning)
事前学習済みモデルを特定のタスクや用途向けに追加学習すること。大量データでの汎用学習(プレトレーニング)+少量データでの特化学習(ファインチューニング)という2段階が現在のLLM開発の標準的な流れです。
ハルシネーション(Hallucination)
AIがもっともらしく見えるが事実と異なる情報を生成してしまう現象。「幻覚」とも呼ばれます。存在しない論文・人物・出来事を自信満々に回答するケースが典型例です。生成AIの最大の課題のひとつです。
💡 試験ポイント:ハルシネーションは「モデルが嘘をついている」わけではなく、「確率的なテキスト生成の結果として誤った情報が生成される」現象です。利用者が出力を批判的に検証することが重要です。
13. GPT-4
2023年3月にOpenAIが公開したモデル。GPT-3.5から大幅に性能が向上し、マルチモーダル(テキストと画像の両方を入力として扱える)に対応しました。
- マルチモーダル:テキスト・画像・音声など複数の種類の情報(モダリティ)を扱える能力。GPT-4以降で本格的に実用化
- 司法試験・医師国家試験相当の問題で高スコアを記録し、高い推論能力が注目された
14. Code Interpreter・GPTs
Code Interpreter
ChatGPT上でPythonコードを実行できる機能。データ分析・グラフ作成・ファイル変換などをチャット上で完結できます。「Advanced Data Analysis」とも呼ばれていました。
GPTs
2023年11月に公開された、ユーザーが独自にカスタマイズしたChatGPTを作成・公開できる機能。特定の役割・知識・ルールを設定したカスタムAIアシスタントを誰でも構築できます。
15. GPT-4o
2024年5月に公開された「omni(オムニ)」モデル。テキスト・画像・音声をリアルタイムで処理できるマルチモーダル対応の統合モデルです。従来のGPT-4より応答速度が大幅に向上し、感情を込めた音声での対話が可能になりました。
16. GPT-o1・GPT-o3・GPT-o4
OpenAIの「oシリーズ(推論モデル)」。通常のGPTが即座に回答を生成するのに対し、oシリーズは回答前に内部で「思考の連鎖(Chain of Thought)」を行い、複雑な論理問題・数学・プログラミングに強い性能を発揮します。
- GPT-o1:2024年9月公開。oシリーズの最初のモデル。複雑な推論タスクで高い性能を発揮
- GPT-o3:2024年12月にプレビュー公開。o1からさらに推論能力が向上
- GPT-o4:oシリーズのさらなる後継モデル
17. GPT-4.1・GPT-5
- GPT-4.1:2025年4月公開。GPT-4oの後継として、コーディング・長文コンテキスト処理・指示追従能力が向上したモデル
- GPT-5:GPTシリーズの次世代モデル。推論・マルチモーダル・エージェント機能を大幅に強化
18. Sora
OpenAIが2024年2月に発表し、同年12月に一般公開した動画生成AIモデル。テキストや画像からリアルで高品質な動画を生成できます。最大1分程度の動画を生成可能で、物理法則を理解したような映像表現が話題を呼びました。
19. Operator・Codex・Image Generation
Operator
OpenAIが2025年初頭に公開したAIエージェント製品。Webブラウザを自律的に操作し、フォーム入力・予約・購入などのタスクをユーザーに代わって実行できます。
Codex
OpenAIが開発したコード生成に特化したAIモデル(GPT-3をベースにコードデータで追加学習)。GitHub Copilotの基盤技術として活用されました。2025年にはWebエージェントとして機能する「Codex」が再リリースされています。
Image Generation
OpenAIの画像生成機能の総称。DALL-Eシリーズを基盤とし、ChatGPT上からテキストで指示して画像を生成できます。GPT-4oとの統合により、よりリアルで指示通りの画像生成が可能になりました。
💡 データセットとは:機械学習に使用するデータの集合体。ChatGPTなどの大規模言語モデルは、インターネット上の膨大なテキストデータセットを使って学習しています。データセットの質・量がモデルの性能を大きく左右します。
その他の主要生成AI
20. Gemini
Googleが2023年12月に発表した大規模マルチモーダルAIモデル。テキスト・画像・音声・動画・コードをネイティブに処理できます。Ultra・Pro・Nanoのサイズ展開があり、Google検索・Workspace・Android端末などに統合されています。従来の「Bard」から「Gemini」にブランド名を変更しました。
21. Claude
Anthropicが開発した対話型AI。「Constitutional AI(憲法的AI)」と呼ばれる安全性重視のアプローチで開発されており、有害なコンテンツの生成を避けることに重点を置いています。Claude 3シリーズ(Haiku・Sonnet・Opus)など複数のモデルサイズを展開し、長文コンテキストの処理能力が高いのが特徴です。
22. Copilot
Microsoftが開発したAIアシスタント。OpenAIへの大規模投資により、GPT-4をはじめとするOpenAIのモデルを基盤として活用しています。Windows・Microsoft 365(Word・Excel・Teams)・Bing検索などに統合されており、ビジネス用途での活用が進んでいます。旧称「Bing Chat」から「Copilot」にブランド統一されました。
💡 試験ポイント:Gemini=Google、Claude=Anthropic、Copilot=Microsoftという開発元の組み合わせは頻出です。それぞれの特徴(Gemini:マルチモーダル・Google統合、Claude:安全性重視・長文処理、Copilot:Microsoft 365統合)も押さえておきましょう。
生成AIが出来ることと主なサービス
1. テキスト生成AI
テキスト生成AIは、文章・コード・要約・翻訳・質問応答などを自動で生成するAIです。大規模言語モデル(LLM)を基盤とし、現在最も広く普及している生成AIの分野です。
- Claude(Anthropic):安全性重視のアプローチで開発された対話型AI。長文処理に強い
- Gemini(Google):テキスト・画像・音声・動画をネイティブに処理できるマルチモーダルAI
- その他:ChatGPT(OpenAI)、Copilot(Microsoft)など
2. 画像生成AI
テキストや画像を入力として、新しい画像を生成するAIです。デザイン・イラスト・広告制作など多くの分野で活用が進んでいます。代表的なサービスにStable Diffusion・Midjourney・DALL-Eなどがあります。
画像生成AIの学習・処理では以下の技術が使われます。
- 画像のリサイズ:学習に使う画像を統一サイズに変換する前処理。モデルへの入力形式を揃えるために必要
- 正規化:画像のピクセル値を0〜1などの一定範囲にスケーリングする処理。学習の安定化に寄与する
- データの水増し(augmentation):学習データを人工的に増やす手法。回転・反転・色調変更などで同じ画像から複数のバリエーションを作り、少ないデータでも汎用的なモデルを学習できる
- データ拡張技術:augmentationを含む、学習データを多様化するための技術群の総称
- リマスタリング:低解像度や劣化した画像を、AIを使って高品質に復元・改善する技術
- 自己回帰モデル:画像生成においても、ピクセルや画像パッチを順番に生成する手法として活用されている
💡 データの水増し(augmentation)は試験頻出です:「学習データが少ない場合に、既存データを加工して水増しすることで過学習を防ぎ汎化性能を高める」技術として押さえてください。
3. 音楽生成AI
テキストや短いメロディを入力として、楽曲・BGM・効果音などを自動生成するAIです。代表的なサービスにSuno・Udioなどがあります。作曲・編曲・効果音制作などのクリエイティブ業務での活用が広がっています。
4. 音声生成AI
テキストから自然な音声を生成したり、既存の声を別の声に変換したりするAIです。ナレーション制作・音声読み上げ・声優の代替・多言語対応などに活用されます。代表的なサービスにElevenLabs・VoiceVoxなどがあります。ディープフェイク(声のなりすまし)への悪用リスクも存在します。
5. 動画生成AI
テキストや画像から動画を自動生成するAIです。映像制作・広告・教育コンテンツなどへの応用が急速に進んでいます。
- Sora(OpenAI):テキストや画像から最大数分の高品質な動画を生成できるモデル。物理的に自然な映像表現で注目を集めた(2024年2月発表・12月一般公開)
- Veo3(Google DeepMind):Googleが開発した動画生成AIモデル。高解像度・長尺の動画生成に対応し、音声付き動画の生成も可能
ディープフェイク(深層偽造)技術
6. ディープフェイクとは
ディープフェイク(深層偽造)技術とは、ディープラーニング(主にGANや拡散モデル)を使って、実在の人物の顔・声・動作を精巧に合成・改ざんした偽の映像・音声・画像を生成する技術です。「Deep learning(深層学習)」と「Fake(偽物)」を組み合わせた造語です。
悪用された場合には、実在の人物が発言していないことを言ったかのような偽動画・偽音声の作成が可能であり、深刻な社会問題となっています。
💡 偽情報(ディスインフォメーション)とは:意図的に作成・拡散される虚偽の情報のこと。ディープフェイクはディスインフォメーションの強力な手段となり、選挙・政治・金融・個人の名誉への悪影響が懸念されています。「ミスインフォメーション(意図のない誤情報)」と区別して理解してください。
7. ディープフェイクによる事件
ディープフェイク技術の悪用は世界各地で深刻な被害をもたらしています。
- 詐欺・なりすまし:経営者の声をディープフェイクで偽造し、従業員に不正送金させた事件(香港、2024年)。ビデオ会議でCFOを装ったディープフェイクにより約34億円が騙し取られた
- 非合意のフェイク画像:有名人や一般人の顔を使った非合意のフェイクポルノ画像・動画の拡散。法整備が急務となっている
- 政治的なフェイク動画:選挙候補者や政治家が発言していない内容を話しているかのような動画の拡散。民主主義プロセスへの干渉が懸念される
- フィッシング詐欺への応用:家族や上司の声・顔を偽造して緊急の金銭要求を行う「ボイスクローン詐欺」が増加
RAG
8. RAGとは
RAG(Retrieval-Augmented Generation:検索拡張生成)とは、大規模言語モデル(LLM)の回答生成時に、外部の知識ベース・データベースから関連情報を検索・取得し、その情報を元に回答を生成する技術・手法です。
LLMはプレトレーニング時点の知識しか持たず、ハルシネーション(誤情報の生成)が課題でした。RAGはこれを補う現実的なアプローチとして急速に普及しています。
💡 RAGをわかりやすく言うと:「試験で参考書の持ち込みを許可する」ようなイメージです。LLM単体では記憶から回答しますが(持ち込み不可)、RAGでは回答前に関連文書を検索して参照してから答えます(参考書持ち込み可)。最新情報・社内文書への対応が可能になります。
9. RAGの歴史と発展
RAGの概念は2020年にMeta AI(Facebook AI Research)の研究チームが論文「Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks」で提唱しました。当初は主に研究用途でしたが、ChatGPTの登場(2022年)以降、企業内AI活用の実用的な手法として急速に注目が高まりました。
現在はベクトルデータベースの普及・チャンキング手法の洗練・ハイブリッド検索などにより、RAGの精度と実用性が大きく向上しています。
10. RAGの仕組みとメリット
RAGの仕組み
- 外部ドキュメント(社内マニュアル・Webページ・PDFなど)をチャンク(小さな意味のある単位)に分割する
- 各チャンクをベクトル(数値の配列)に変換し、ベクトルデータベースに格納する
- ユーザーの質問もベクトルに変換し、ベクトルデータベースから類似度の高いチャンクを検索・取得する
- 取得した関連チャンクをLLMへのプロンプトに追加して回答を生成する
💡 主要キーワード解説
- チャンク:ドキュメントをRAGで処理しやすい単位に分割したテキストのまとまり。段落・文・固定文字数などで区切る。チャンクのサイズ設計が検索精度に大きく影響する
- ベクトルデータベース:テキストや画像などをベクトル(数値の配列)に変換して格納し、類似度検索に特化したデータベース。Pinecone・Chroma・Weaviateなどが代表例。RAGの「記憶装置」として機能する
RAGのメリット
| 課題 | LLM単体 | RAG導入後 |
|---|---|---|
| 最新情報への対応 | 学習データの時点で止まっている | 最新文書を参照して回答できる |
| 社内・専用知識 | 学習していないため回答不能 | 社内文書をDBに入れれば対応可能 |
| ハルシネーション | 根拠なく誤情報を生成する可能性がある | 参照元を明示でき根拠ある回答が可能 |
| コスト | ファインチューニングには多大なコスト | DBの更新だけで知識を追加できる |
11. RAGのユースケース
- 社内FAQ・ヘルプデスク:社内マニュアル・規定・過去の問い合わせ対応をDBに格納し、従業員の質問に自動回答
- カスタマーサポート:製品マニュアル・FAQ・サポート履歴を参照してユーザーの問い合わせに回答
- 法務・コンプライアンス:最新の法令・判例・社内規定を参照した法律相談支援
- 医療・研究支援:最新の論文・医療ガイドラインを参照した情報提供
- 金融・投資:最新の財務報告・市場データを参照したレポート生成
AIエージェント
12. AIエージェントとは
AIエージェントとは、与えられた目標を達成するために、LLMが自律的に計画を立て、複数のツール(Web検索・コード実行・ファイル操作・外部APIなど)を使いながら、試行錯誤を繰り返してタスクを完結するAIシステムです。
従来のChatGPTのような「1問1答」型のAIと異なり、エージェントは複数ステップにわたる複雑なタスクを自律的に処理できます。
💡 エージェントとチャットAIの違い:チャットAIは「質問→回答」の1ステップ。エージェントは「目標設定→計画→ツール実行→結果確認→再計画→…→目標達成」という複数ステップを自律的に繰り返します。
13. AIエージェントの仕組み
AIエージェントは主に以下のサイクルで動作します。
- 目標の理解:ユーザーから与えられたタスクや目標を解釈する
- 計画立案:目標達成のために必要なステップを考える(LLMの推論能力を活用)
- ツール実行:Web検索・コード実行・ファイル読み書き・API呼び出しなどのツールを使う
- 結果の評価:ツールの実行結果を確認し、次のアクションを決定する
- 繰り返し・完了:目標が達成されるまで3〜4を繰り返し、完了したらユーザーに結果を報告する
14. AIエージェントのツール事例
代表的なAIエージェントサービスの事例を紹介します。
| サービス | 開発元 | 特徴 |
|---|---|---|
| GenSpark | GenSpark AI | Web上の情報を自律的に収集・分析・整理して高品質なレポートやコンテンツを生成するエージェント。複数ソースの情報を統合して回答する |
| Manus | Monica(中国) | 2025年に注目を集めた汎用AIエージェント。ブラウザ操作・コード実行・ファイル処理などを組み合わせて複雑なタスクを自律実行できる |
| Skywork AI | Kunlun Tech(中国) | 複数のAIエージェントが協調して作業するマルチエージェントシステム。複雑なリサーチ・分析タスクに対応 |
15. MCPと外部連携
MCP(Model Context Protocol)は、Anthropicが2024年11月に公開したオープンな標準プロトコルです。AIモデル(LLM)と外部ツール・データソース・サービスを統一された方法で接続するための「共通の接続規格」です。
MCPを使うことで、AIエージェントは以下のような外部リソースに標準的な方法でアクセスできます。
- ファイルシステム・データベース
- 外部API・Webサービス
- 開発ツール(GitHub・Jiraなど)
- ビジネスツール(Slack・Google Workspaceなど)
💡 MCPをわかりやすく言うと:家電製品のコンセント規格のようなもの。MCPという統一規格があることで、さまざまなAIエージェントがさまざまなツールに「同じ差し込み口」でつながれるようになります。開発コストが大幅に下がり、AIエージェントのエコシステム拡大を促進します。
インターネットリテラシー
1. インターネットリテラシーとは
インターネットリテラシーとは、インターネットを安全・適切・効果的に利用するために必要な知識・判断力・スキルの総称です。生成AIの普及により、情報の真偽判断や個人情報の扱いへの理解がこれまで以上に重要になっています。
| 構成要素 | 説明 |
|---|---|
| テクノロジーの理解 | インターネット・AIの仕組みや特性を基本的に理解し、適切に活用できる能力 |
| 情報リテラシー | 情報の真偽・信頼性を評価し、必要な情報を収集・活用・発信できる能力 |
| セキュリティとプライバシー | オンライン上のリスクを理解し、個人情報・プライバシーを守れる能力 |
| デジタル市民権 | デジタル社会における権利・責任・倫理を理解し、良識ある行動ができる能力 |
セキュリティとプライバシー
2. フィッシング詐欺とその手口
フィッシング詐欺とは、銀行・通販サイト・SNSなどの公式サービスを装った偽のメール・SMS・電話・Webサイトを使って、IDやパスワード・クレジットカード情報などを騙し取るサイバー犯罪です。
| 手口 | 説明 |
|---|---|
| フィッシング詐欺 | 偽のメール・Webサイトで個人情報を騙し取る。「アカウントが停止されました」などの緊急性を演出するのが典型的な手口 |
| スミッシング | SMS(ショートメッセージ)を使ったフィッシング詐欺。「荷物が届いています」などの偽メッセージでリンクをクリックさせる |
| ヴィッシング | Voice(音声)を使ったフィッシング詐欺。電話で銀行員・公的機関を装い情報を聞き出す。AIによる声の偽造(ディープフェイク音声)との組み合わせが増加中 |
| スピアフィッシング | 特定の個人・組織を狙い撃ちにした標的型フィッシング。相手の名前・役職・取引先などを調べて信憑性を高めた内容にする |
3. マルウェア・ランサムウェア
- マルウェア:「Malicious Software(悪意あるソフトウェア)」の略。ウイルス・スパイウェア・ランサムウェアなど悪意を持って設計されたソフトウェアの総称
- ランサムウェア:感染したコンピュータのファイルを暗号化し、復号と引き換えに金銭(身代金)を要求するマルウェア。病院・自治体・企業を標的にした大規模攻撃が世界的に増加している
- アンチウイルスソフトウェア:マルウェアを検知・駆除するセキュリティソフト。既知のマルウェアパターン(シグネチャ)との照合や、AIによる行動分析で未知の脅威も検出する
4. ソーシャルエンジニアリング攻撃
ソーシャルエンジニアリング攻撃とは、技術的な手段ではなく、人間の心理・信頼・習慣を利用して機密情報を騙し取ったり、不正な操作をさせたりする攻撃手法です。
- プレテキスト:架空のシナリオ(口実)を作り出してターゲットを騙す手法。「IT部門の者です、パスワードを確認させてください」など
- ベイト攻撃:「無料のUSBメモリ」「映画のダウンロードリンク」など魅力的な「餌(ベイト)」でターゲットを罠に誘い込む手法
- ブラックメール:脅迫によって情報や金銭を要求する手法。「あなたの恥ずかしい動画を持っている」などのメールが典型例
💡 生成AIとソーシャルエンジニアリングの関係:生成AIの発展により、ターゲットの文体・口調を模倣した自然な文章のフィッシングメール作成や、上司・家族の声をクローンしたヴィッシング攻撃が容易になりました。従来より遥かに精巧な攻撃への備えが必要です。
5. 悪意のあるQRコード・Wi-Fi・アップロードサービス
- 悪意のあるQRコード:正規のQRコードを偽のQRコードで上書き・差し替えることで、フィッシングサイトへ誘導したりマルウェアをダウンロードさせたりする攻撃。公共の場に貼られたQRコードには注意が必要
- Wi-Fiに潜む罠(悪意のあるアクセスポイント):「Free_WiFi」などの偽のWi-Fiアクセスポイントを設置し、接続したユーザーの通信を盗聴・傍受する攻撃(Evil Twinアタック)。カフェ・空港などの公共Wi-Fiに偽装する手口が多い
- アップロードサービスに潜む詐欺:無料のファイル変換・圧縮・PDF変換サービスを装い、アップロードされたファイルに含まれる個人情報・機密情報を窃取する手口。生成AIを使った「無料ツール」への安易なアップロードにも注意が必要
6. プライバシー設定・生成AIの技術的発展に潜む脅威
- プライバシー設定:SNS・アプリ・ブラウザなどのプライバシー設定を適切に管理することで、不必要な個人情報の公開・収集を防ぐ。生成AIサービスの利用規約・データ利用ポリシーの確認も重要
- 生成AIの技術的発展に潜む脅威:生成AIの高度化により、なりすまし・偽情報生成・個人情報の推定精度向上・AIを使ったサイバー攻撃の自動化など、新たなセキュリティリスクが生まれています。ChatGPTなどへの機密情報入力には特に注意が必要です
個人情報保護の観点
7. 個人情報保護法
個人情報保護法は、個人情報の適切な取り扱いを定めた日本の法律です(2003年成立)。デジタル化・AIの進展に対応するため改正が繰り返されており、改正個人情報保護法(2022年全面施行)では利用停止請求権の拡大・漏えい時の報告義務・外国への第三者提供規制などが強化されました。
監督機関として個人情報保護委員会が2016年に設置され、個人情報の取り扱いに関するガイドライン策定・違反事業者への勧告・是正命令などを行っています。
8. 個人情報の詳細な定義
| 用語 | 説明 |
|---|---|
| 個人情報取扱事業者 | 個人情報データベースを事業活動に利用している事業者。個人情報保護法の義務(安全管理・開示・削除等)が課される |
| 個人識別符号 | それ単体で特定の個人を識別できる符号。指紋・顔認証データ・マイナンバー・旅券番号・免許証番号など。これを含む情報は個人情報に該当する |
9. 要配慮個人情報・機微情報・匿名加工情報
- 要配慮個人情報:不当な差別・偏見を生じさせる可能性があるため、取得・第三者提供に本人の同意が必要な特別な情報。人種・信条・社会的身分・病歴・犯罪歴・障害・健康診断の結果など
- 機微(センシティブ)情報:要配慮個人情報と類似した概念で、金融・保険分野などで使われる用語。政治的見解・宗教・労働組合への加盟・性生活などを含む、特に慎重な取り扱いが求められる情報
- 匿名加工情報:特定の個人を識別できないように加工された情報。本人の同意なしに第三者提供・活用が可能になる。ビッグデータ活用・AI学習データとしての利用が想定される
- マスキング:個人情報の一部を隠す・置き換える処理。氏名の一部を「〇」にする・クレジットカード番号の一部を「*」で隠すなど。生成AIへの入力前に機密情報をマスキングすることが重要
💡 生成AI活用における個人情報の取り扱いの注意点:ChatGPTなどのクラウド型生成AIに個人情報・要配慮個人情報を入力することは、第三者提供に該当する可能性があります。入力前のマスキング、企業ポリシーの確認、個人情報保護法との整合性の検討が不可欠です。
制作物に関わる権利
10. 知的財産権
知的財産権とは、人間の知的創造活動によって生み出された成果物(発明・著作物・ブランドなど)を保護する権利の総称です。
| 権利の種類 | 保護対象・概要 |
|---|---|
| 著作権 | 文章・音楽・絵画・プログラムなど創作物を保護。創作した時点で自動的に発生する(登録不要) |
| 特許権 | 新しい発明・技術的アイデアを保護。特許庁への出願・審査・登録が必要。存続期間は出願から20年 |
| 商標権 | 商品・サービスに使うロゴ・ブランド名を保護。登録が必要。10年ごとの更新で半永久的に維持可能 |
| 意匠権 | 製品の見た目(形状・模様・色彩などのデザイン)を保護。登録が必要 |
11. 肖像権・パブリシティ権
- 肖像権:自分の顔・姿・容貌などを無断で撮影・公開されない権利。憲法第13条(幸福追求権)を根拠とする人格権のひとつ。生成AIで実在の人物の顔を模倣した画像を生成・公開することは肖像権侵害になりうる
- パブリシティ権:著名人の氏名・肖像が持つ経済的な価値(商品の宣伝効果など)を保護する権利。芸能人・スポーツ選手などの顔・名前を無断で商業利用することは侵害にあたる。生成AIで著名人を模倣したコンテンツの商業利用には注意が必要
12. 不正競争防止法
不正競争防止法は、事業者間の公正な競争を守るための法律です。生成AI活用との関連で特に重要な概念を押さえておきましょう。
- 営業秘密:秘密として管理されている技術上・営業上の情報(顧客リスト・製造ノウハウ・設計図など)。不正取得・使用・開示は不正競争防止法違反。生成AIに社内の営業秘密を入力することはリスクがある
- 限定提供データ:特定の相手に限定して提供されるデータ(業務提携先だけに共有するデータベースなど)。不正取得・使用が不正競争防止法で規制される
13. AI生成物に関する権利
AI生成物の著作権の所在
現行の著作権法では、著作物の成立に「人間の創作的表現」が必要です。そのため、AIが自律的に生成したコンテンツそのものには著作権は発生しないと解釈されています。ただし、以下のように状況によって判断が異なります。
- 人間の創作的寄与が十分な場合:詳細なプロンプト設計・複数回の試行錯誤・生成後の加工・編集など、創作的な関与が認められれば著作権が発生しうる
- AIが自律的に生成した場合:ボタン1つで機械的に出力した場合など、人間の創作的寄与が薄い場合は著作権なしとされる可能性が高い
AI生成物が既存の権利を侵害する可能性
- 著作権侵害:AIが学習データに含まれる著作物に類似したコンテンツを生成した場合、著作権侵害となりうる。特に画像生成AIで特定作家の画風を模倣した場合が問題になりやすい
- 名誉毀損:AI生成物が特定の実在人物について虚偽の事実を含む場合、名誉毀損に該当しうる。生成物の事実確認が利用者の責任として求められる
💡 試験ポイント:「AIが生成したコンテンツには著作権が発生しない(原則)」「利用者・提供者に既存権利の侵害責任が発生する可能性がある」「最終的な責任はAIではなく人間が負う」という3点を押さえてください。
AIを取り巻く理念と原則・ガイドライン
14. AI社会の基本理念
内閣府が2019年に策定した「人間中心のAI社会原則」では、AI社会が目指すべき3つの基本理念が示されています。
| 理念 | 英語表記 | 内容 |
|---|---|---|
| 人間の尊厳が尊重される社会 | Dignity | AIによって人間が道具化・手段化されることなく、一人ひとりの尊厳が守られる社会を実現する |
| 多様な背景を持つ人々が多様な幸せを追求できる社会 | Diversity & Inclusion | 年齢・性別・国籍・障害の有無などに関わらず、すべての人がAIの恩恵を享受できる多様で包摂的な社会を実現する |
| 持続可能な社会 | Sustainability | AIを活用して環境問題・社会課題を解決し、次世代に渡せる持続可能な社会を実現する |
15. AI社会原則
基本理念を実現するため、内閣府の「人間中心のAI社会原則」では7つのAI社会原則が定められています。
- 人間中心の考え方:AIはあくまで人間を支援するものであり、AIの利用は人間の意思決定と監督のもとに置かれるべき
- 安全性・公平性:AIの利用は人々の生命・身体の安全を脅かさず、不当な差別・偏見を生じさせないものであるべき
- プライバシー保護:AIの利用にあたって個人のプライバシーが侵害されないよう適切に保護されるべき
- セキュリティ確保:AIシステムへの不正アクセス・悪用・データ漏えいを防ぐ十分な安全措置を講じるべき
- 透明性:AIの利用目的・仕組み・判断根拠が適切に説明・開示されるべき
- アカウンタビリティ:AI利用によって生じた結果について説明責任を果たすべき
16. 共通の指針・高度なAIシステムに関係する事業者に共通の指針
経済産業省・総務省が策定した「AI事業者ガイドライン(第1.1版)」では、AI開発者・提供者・利用者に共通して求められる指針が示されています。
- 人間中心 / 安全性 / 公平性
- プライバシー保護 / セキュリティ確保 / 透明性
- アカウンタビリティ / 教育・リテラシー
- 公正競争確保 / イノベーション
特に高度なAIシステム(汎用AI・大規模言語モデルなど)に関係する事業者には、リスク評価・モニタリング・インシデント対応など追加の責任が求められます。
17. AIガバナンスの構築
AIガバナンスとは、組織がAIを適切に管理・運用するための体制・ルール・プロセスの総称です。AI事業者ガイドラインでは以下のステップでの構築が推奨されています。
- 環境・リスク分析:組織のAI活用状況・外部環境・潜在的リスクを把握・評価する
- AIガバナンス・ゴール:分析結果をもとに、組織として目指すAIガバナンスの目標・方針を定める
- AIマネジメントシステム:ゴール達成のための具体的な管理体制・プロセス・ツールを構築・運用する
18. AIの事業活動を担う3つの主体
AI事業者ガイドラインでは、AIに関わる事業者を役割に応じて3つに分類しています。
| 主体 | 英語 | 役割・説明 |
|---|---|---|
| AI開発者 | AI Developer | AIモデル・システム自体を設計・開発する事業者。学習データの選定・モデルアーキテクチャの設計・安全性評価などを担う |
| AI提供者 | AI Provider | AIシステムをサービスとして提供する事業者。開発者が作ったモデルを使ってサービス化し、利用者に提供する |
| AI利用者 | AI Business User | 業務・事業でAIサービスを活用する事業者。提供者のサービスを導入し、適切な利用・管理の責任を持つ |
💡 試験ポイント:OpenAIがGPT-4を開発すれば「AI開発者」、そのAPIを使って業務システムを構築・提供する企業が「AI提供者」、そのシステムを業務で使う企業が「AI利用者(AI Business User)」です。1社が複数の役割を担う場合もあります。
AI新法
19. AI新法の必要性
AI新法(正式名称:人工知能関連技術の研究開発及び活用の推進に関する法律)は、2025年6月4日に公布された日本のAI推進に関する法律です。
生成AIをはじめとするAI技術の急速な発展・普及により、以下の必要性から制定されました。
- AIの研究開発・活用を国として積極的に推進するための法的基盤の整備
- AIの利活用における安全性・信頼性の確保
- AI技術を通じた経済成長・社会課題解決の実現
- 国際的なAI規制・ガバナンスの動向への対応
20. AI新法の基本構造と内容
AI新法は「AIの研究開発・活用を推進しつつ、適切なリスク管理を行う」という基本的な考え方のもとに構成されています。
- 国・地方公共団体・事業者の責務:それぞれの役割と責任を明確化する
- 基本計画の策定:政府がAI推進に関する基本計画を策定・実施する
- リスク管理の枠組み:AIのリスクに応じた適切な管理・対応措置を講じる
- 人材育成・教育:AI人材の育成とリテラシー教育の推進
21. 注意すべき具体的なリスク・AI事業者ガイドラインとの関連
注意すべき具体的なリスク
- 安全性・信頼性リスク:AIの誤判断・ハルシネーションによる被害(医療診断・自動運転・金融判断など)
- プライバシー・個人情報リスク:AIによる個人情報の不適切な収集・利用・漏えい
- 差別・偏見リスク:学習データの偏りによる不公正な判断(採用・融資・医療判断でのAI差別)
- セキュリティリスク:AIシステムへの攻撃・悪用・AIを用いたサイバー攻撃の高度化
- 知的財産・権利侵害リスク:AI生成物による著作権侵害・肖像権侵害
AI事業者ガイドラインとの関連
AI新法は「AI事業者ガイドライン(第1.1版)」と連動しており、ガイドラインが示す自主的な取り組みの枠組みをより強固な法的基盤で支える関係にあります。ガイドラインで示されるAI開発者・提供者・利用者それぞれへの期待事項は、AI新法の趣旨とも整合しています。
💡 試験ポイント:AI新法の正式名称「人工知能関連技術の研究開発及び活用の推進に関する法律」と公布日「2025年6月4日」は確実に覚えましょう。EU AI Actのような義務規制型ではなく、日本では「推進」を軸に置いた法律として位置づけられています。
LMとLLM
1. LM(Language Model:言語モデル)
LM(Language Model:言語モデル)とは、テキストデータを学習し、「ある単語の次にどの単語が来やすいか」という確率を計算するモデルです。文章の自然さの評価・次の単語の予測・文章の生成などに使われます。
代表的な言語モデルの種類:
- n-gramモデル:直前のn個の単語から次の単語を予測する統計的な言語モデル。「おはよう+ございます」のように、共起する単語の頻度をカウントして確率を計算する。シンプルだが長距離の文脈を捉えられない
- ニューラル言語モデル:ニューラルネットワーク(RNN・LSTM・Transformerなど)を使った言語モデル。n-gramより長い文脈を学習でき、現代のLLMの基盤となっている
2. LLM(Large Language Model:大規模言語モデル)とプレトレーニング
LLM(Large Language Model:大規模言語モデル)とは、膨大なテキストデータで学習した、数十億〜数兆規模のパラメータを持つ大規模なニューラル言語モデルです。GPT-4・Claude・Geminiなどが代表例です。
LLMの学習は2段階で行われます。
| 段階 | 名称 | 内容 |
|---|---|---|
| 第1段階 | プレトレーニング(事前学習) | インターネット上の大量テキストを使って「次の単語を予測する」タスクで汎用的な言語能力を習得する。膨大な計算コストがかかる |
| 第2段階 | ファインチューニング | 特定のタスク・用途向けに追加学習する。RLHF(人間フィードバックによる強化学習)を使って対話能力・安全性を向上させる |
💡 ハイパーパラメータとは:学習が始まる前に人間が設定するパラメータ。学習率・バッチサイズ・Temperatureなどが代表例。モデルが学習で自動調整する「重み(パラメータ)」とは区別されます。
3. プロンプト・プロンプトエンジニアリング・Temperature・Top-p
プロンプト
プロンプトとは、テキスト生成AIに対して与える入力テキスト(指示・質問・文脈など)のことです。同じモデルでもプロンプトの内容によって出力の質が大きく変わります。
プロンプトエンジニアリング
プロンプトエンジニアリングとは、AIから望む出力を引き出すためにプロンプトを設計・最適化する技術・手法です。効果的なプロンプトを設計する能力は、生成AI活用における重要スキルとして注目されています。
💡 出力の多様性を制御するパラメータ
| パラメータ | 役割 | 値の意味 |
|---|---|---|
| Temperature | 出力のランダム性(創造性)を制御する | 0に近い→一貫性・確実性が高い回答。高い値→多様でクリエイティブな回答。創作には高め、事実確認には低めが適切 |
| Top-p(nucleus sampling) | 出力候補となる単語の範囲を制御する | 累積確率がp以内の単語のみから次の単語を選択する。Temperatureと組み合わせて出力の質と多様性を調整する |
プロンプティングの基礎
4. プロンプトの4要素
効果的なプロンプトは以下の4つの要素で構成されます。すべてを毎回書く必要はなく、タスクに応じて組み合わせます。
| 要素 | 英語 | 役割・例 |
|---|---|---|
| 指示 | Instruction | AIに実行させたいタスクを明確に伝える。「以下の文章を要約してください」「翻訳してください」など |
| 文脈 | Context | AIが適切な回答をするための背景情報。「あなたはベテランのマーケターです」「読者は中学生です」など |
| 入力データ | Input Data | AIが処理すべき具体的なデータ・テキスト。「以下の文章:〜」として提供する情報 |
| 出力の指定 | Output Indicator | 望む出力の形式・長さ・スタイルを指定する。「箇条書きで3点」「300字以内で」「JSON形式で」など |
5. Zero-Shotプロンプティング
Zero-Shotプロンプティングとは、具体的な例(サンプル)を一切提示せず、指示だけでAIにタスクを実行させる手法です。
例:
- 「次の文章をポジティブ・ネガティブ・中立のいずれかに分類してください。文章:『今日は雨が降っていて外出できなかった』」
事前の例示なしでも幅広いタスクをこなせることがLLMの特徴であり、多くの日常的なプロンプトはZero-Shotで十分対応できます。
6. Few-Shotプロンプティング
Few-Shotプロンプティングとは、プロンプトの中にいくつかの入力と出力の例(ショット)を示し、AIが同じパターンで応答できるよう誘導する手法です。
例:
- 「以下の例にならって、商品名から特徴を一言で表してください。
商品名:スマートウォッチ → 特徴:手首で管理
商品名:電動歯ブラシ → 特徴:振動で清潔
商品名:ロボット掃除機 → 特徴:」
出力形式の統一・独自の分類基準の適用・特定のトーン・文体の再現などに有効です。例が多いほど精度は上がりますが、トークン(文字数)消費も増えます。
💡 試験ポイント:Zero-Shot=例なしで指示のみ、Few-Shot=少数の例を示して誘導、という違いを押さえてください。例の数が増えるにつれてOne-Shot(1例)→Few-Shot(数例)と呼ばれます。
LLMプロンプティングの実践
7. 文章の校正・整理・要約
- 文章の校正・校正箇所の確認:誤字・脱字・文法ミス・表記ゆれを検出・修正させる。「校正してください」だけでなく「修正箇所を【 】で囲んで理由も示してください」と出力形式を指定するとより便利
- 文章の整理:読みにくい文章の構造・論理展開を整えて読みやすくする。「論理的に整理してください」「見出しをつけて構造化してください」などと指示する
- 文章の要約:長い文章から要点を抽出する。「3点に要約」「100字以内で要約」「小学生でもわかる言葉で要約」など目的に合わせた指示が効果的
8. 変換・スタイル変更系の活用
- 箇条書きを文章に変換・文章を箇条書きに変換:情報の形式を用途に合わせて変換する。箇条書きのメモ→報告書文章、長文→箇条書きまとめなど
- 文章の対象を変更する:同じ内容を異なる読者層向けに書き直す。「子ども向けに書き直してください」「専門家向けに書き直してください」など
- 話者の設定を変更する:視点・話者・人称を変える。「一人称を三人称に変えてください」「女性の視点で書き直してください」など
- 文章を会話のやり取りへ変換:説明文・マニュアルなどをQ&A形式・対話形式に変換する。FAQページや接客トーク作成に活用できる
- 例え話で理解を深める:難しい概念をわかりやすい例え話で説明させる。「料理に例えて説明してください」「子どもに伝えるなら何に例えますか?」など
- 数字の変換:数値の単位変換・桁の読み方変換・表記の統一などを行わせる。「売上データの数字を万円単位に統一してください」など
テキスト生成AIを用いたビジネス応用
9. ドキュメント作成・整理
- メールの作成:件名・宛先・目的・トーンを指定して、ビジネスメールの下書きを生成する。「お詫びのメール」「依頼メール」「断りのメール」など場面別に活用できる
- ビジネス書類のテンプレート作成:報告書・企画書・議事録・契約書などの雛形を生成する。「〇〇プロジェクトの進捗報告書のテンプレートを作成してください」など
- アジェンダの作成:会議・イベントの進行表・議題リストを生成する。目的・参加者・時間を指定するとより精度の高いアジェンダが得られる
- 業務の手順を分解:複雑な業務を細かいステップに分解し、手順書・マニュアルを作成する。「〇〇業務のフローを10ステップで書いてください」など
- タスクの抽出:議事録・メール・会議メモからToDoリストや担当者別タスクを抽出する
10. 分析・アイデア創出・ディスカッション
- アンケート項目の作成:調査目的・対象者を伝えて適切な設問を生成する。選択肢付き・自由回答・リッカートスケールなど形式の指定も可能
- アンケートの分析:回収したアンケートの自由記述テキストを分類・集計・傾向分析させる。大量の定性データの処理に特に有効
- キャッチコピーの作成:商品・サービスの特徴・ターゲット・トーンを伝えてコピー案を複数生成させる。ブレインストーミングの起点として活用できる
- ブレインストーミング:テーマを与えてアイデアを大量に列挙させる。「批判なく」という指示を加えるとより発散的なアイデアが得られる
- ディベートを行う:あるテーマについて賛成・反対の両方の立場から論点を整理させる。意思決定・リスク評価・説得力のある資料作成に活用できる
- 質問させながら一緒に進める:AIに情報が不足している場合に質問させ、対話的にタスクを進める手法。「情報が足りない場合は質問してください」と指示する
11. 語学・国際業務
- 外国語の翻訳:文章を指定の言語に翻訳する。「ビジネス文書として自然な英語に翻訳してください」「直訳ではなく意訳でお願いします」など用途・スタイルを指定するとより実用的
- 英単語から英文の作成:キーワードやメモ書きレベルの英単語から、自然な英文・英語メールを生成する。英語が苦手でも内容を伝えられる
- 海外企業宛のメール文章の作成:文化的な配慮・ビジネス慣習を踏まえた国際ビジネスメールを生成する。「アメリカ企業向けにフォーマルな英語で」「丁寧だが簡潔に」などの指示が有効
12. データ整理・構造化
- 姓と名の分離:「田中太郎」のようなデータから姓・名を分割する。Excelでは難しいケースもテキスト生成AIなら柔軟に対応できる。CSV・JSONなど構造化データへの変換にも応用できる
- ふりがなの記載:人名・地名・専門用語などにふりがな(読み仮名)を付与する。文書のアクセシビリティ向上や社内名簿整備などに活用できる
💡 ビジネス応用の共通ポイント:テキスト生成AIはあくまで「下書き・たたき台」を作るツールと位置づけ、最終的な内容は人間が確認・編集することが重要です。特に数値・固有名詞・法的表現・医療情報などはハルシネーションのリスクがあるため必ず事実確認が必要です。
テキスト生成AIの不得意なこと
13. テキスト生成AIが苦手な4つの領域
テキスト生成AIは高い汎用性を持つ一方で、構造的に苦手とする領域があります。利用時はこれらの限界を理解した上で活用することが重要です。
| 不得意な領域 | 説明・注意点 |
|---|---|
| 正確な文字数の指定 | 「100字ちょうどで書いてください」のような厳密な文字数指定への対応は苦手。LLMはトークン単位で処理するため、日本語の文字数を正確にカウントする仕組みを持たない。目安・概算としての指定にとどめ、最終的な文字数は人間が確認する |
| 計算 | 足し算・掛け算などの単純な計算でも誤りが生じることがある。LLMは数値を「テキストパターン」として処理するため、計算は本質的に苦手。複雑な計算や正確な数値が必要な場合はCode Interpreter(Pythonコード実行)や専用の計算ツールと組み合わせて使う |
| 最新の情報 | LLMはプレトレーニング時点(学習データのカットオフ日)以降の情報を知らない。最新のニュース・株価・法改正・製品情報などは正確に回答できない。最新情報が必要な場合はRAGやWeb検索機能との組み合わせが有効 |
| 芸術の批評 | 美しさ・感動・審美的価値など主観的・感性的な判断は苦手。統計的なパターンから「それらしい」批評文は生成できるが、真の意味での感性的評価・独自の審美眼を持つわけではない。参考意見として活用し、最終的な評価は人間が行う |
💡 試験ポイント:テキスト生成AIの不得意4領域「正確な文字数の指定・計算・最新の情報・芸術の批評」は頻出です。それぞれの理由(なぜ苦手なのか)とセットで理解しておきましょう。計算はCode Interpreter、最新情報はRAG・Web検索で補完できることも覚えておくと実践的です。
