Generative AI Testの例題・過去問

※掲載している例題は、出題当時から内容を一部改修している場合があります。

生成AIの技術

特徴

大規模言語モデル (LLM) において用いられている深層学習モデルのアーキテクチャとして、最も適切な選択肢を1つ選べ。

A ) SentencePiece
B ) トランスフォーマー (Transformer)
C ) N-gram言語モデル
D ) Skip-gramモデル

2023#1にて出題

特徴

(記述式)Zero-ShotプロンプトとFew-Shotプロンプトの違いを説明してください

2023#2記述式の例題

動向

大規模言語モデル (LLM) の技術開発の潮流として、適切な選択肢をすべて選べ。

A ) スケーリング則 (Scaling Laws) に基づき、パラメーター数を増加させる競争が続いている。
B ) スケーリング則 (Scaling Laws) の発見により、学習や推論において計算量を削減するための技術開発は不要となった。
C ) テキスト以外にも画像などを入力とする技術改良も進められている。
D ) 強化学習の手法などを用いて、ユーザーにとってより有益な結果が出力されるようにする試みが進められている。

2023#1にて出題

生成AIの利活用

特徴

理論上、生成AIが生成できるメディア形式として、最も適切な選択肢を1つ選べ。

A ) 画像・テキストデータ
B ) 音声データ
C ) 3Dデータ
D ) 生成AIという概念は、特定のメディア形式に依存しない

2023#1にて出題

動向

より高い価値を生み出す生成AIのユースケースを見つける際の考え方として、適切な選択肢をすべて選べ。

A )生成AIは人間を模して作られているので、活用は必ず人員の削減につながる。
B )生成AIが人間のあらゆる作業を置き換えてくれるわけではないため、役割分担を検討する必要がある。
C )生成AIは人間と同等ないしそれ以上の結果を、人間よりも早く導き出せる場合がある。
D )生成AIのアプリケーションは、基本的にチャット型のインターフェースを持つという前提で使用方法を検討するのが良い。

2023#1にて出題

動向

一般的に自社で生成AI を利用する際に、外部のサービス(例:ChatGPT)のモデルを使うか、オープンソースのモデルをカスタマイズして使うかを決定する上で評価すべき事項として、適切な選択肢をすべて選べ。

A ) 自社における秘匿性の高いデータの利用方針
B ) モデル利用に伴うコスト
C ) モデルがリリースされてからの経過時間
D ) 生成AI サービスの利用規約の内容
E ) 利用する言語に対するモデルの性能

2023#2にて出題

生成AIのリスク

特徴

生成AIが孕む公平性のリスクやバイアスに起因すると考えられる事象として、最も適切な選択肢を1つ選べ。

A) 入力言語により生成AIの出力の正確性が異なる。
B ) 生成AIのサービスにより利用規約が異なる。
C ) 利用者により生成AIの利用頻度が異なる。
D ) 生成AIのアルゴリズムにより計算速度が異なる。

2023#1にて出題

特徴

自社が秘密保持契約(NDA)を締結した上で他者から提供を受けた機密情報を、生成AI に入力する場合に留意するべき点について、適切な選択肢をすべて選べ。

A ) 生成AI の利用に関する自社のルールに従うこと
B ) NDA に定められた利用目的の範囲内で生成AI を利用すること
C ) NDA 上の例外規定として、生成AI サービスに秘密情報を入力することが NDA 違反にならないことが明記されているかを確認すること
D ) 如何なる場合においても他社の機密情報を生成AI に入力することは NDA 違反になる

2023#2にて出題

動向

生成AIに関するリスクと規制の特徴について、適切な選択肢をすべて選べ。

A ) 生成AIが孕む法的リスクは、サービスの処理内容や利用者の使い方には依存しない。
B ) 生成AIの新たな活用方法が見出されることにより、新たなリスクが出現する可能性がある。
C ) 生成AIにおいて認識すべきリスクや規制について把握するためには、継続的な情報収集が必要である。
D ) 生成AIの利用について、法令で制限される可能性がある。

2023#1にて出題

正解

(Q1)B

【2023#1における選択肢別解答率】
 A:0.5%、B:95.2%、C:3.5%、D:0.8%

【解説】
[ 大規模言語モデル (LLM) のアーキテクチャ ]
ほとんどの大規模言語モデルにおいて、アーキテクチャとしてトランスフォーマー (Transformer) が用いられています。トランスフォーマーはアテンション (Attention) を用いて、入力テキスト中のすべてのトークン (トランスフォーマーにおける処理の単位) から情報を集めることができ、長い範囲の依存関係を捉えることが可能です。
なお、大規模言語モデルに入力するテキストをトークン化するために、SentencePieceというツールが用いられることがあります。トランスフォーマー以前の深層学習手法として、Skip-gramモデルがあり、これは単語のベクトル表現を学習する手法です。また、従来の言語モデルの一つとしてN-gram言語モデルがあります。これは、「直前のN-1個の単語に基づいて次の単語を予測する」モデルで、深層学習に基づくものではありません。

(Q2)

【解答例】
Zero-Shotプロンプトでは、例示を入れることなくタスクや回答内容の説明をプロンプト内に記述します。これに対してFew-Shotプロンプトでは、回答の精度を向上させることを狙ってタスクのインプットとアウトプットのペアをプロンプト内で例示します。

【解説】
[ Zero-ShotプロンプトとFew-Shotプロンプトの違い ]
Few-Shotプロンプトには、タスクのインプットとアウトプットのペアをプロンプト内で例示することで回答の精度を向上させる狙いがあります。 GPT-3ではこのFew-Shotプロンプトによる回答精度が高いことや例示の数を増やすほど精度が向上する傾向にあることが示されています。 これに対して、Zero-Shotプロンプトでは、例示を入れることなくタスクや回答内容の説明をプロンプト内に記述します。

(Q3)A, C, D

【2023#1における選択肢別解答率】
 A:90.7%、B:3.3%、C:90.3%、D:98.1%

【解説】
[ 大規模言語モデル (LLM) の技術開発の潮流 ]
モデルのパラメーター数を増加させることでより高い精度の出力を得ることができるというスケーリング則 (Scaling Laws) に後押しされる形で、言語モデルの巨大化、すなわち言語モデルのパラメーター数を増加させる方針の競争が続いています。一方で、計算量が大きすぎるという課題もあるため、言語モデルのパラメーター数を抑えつつ高い精度を出すための手法が提案されています。加えて、強化学習の手法などを用いて、人間にとってより有益な情報が出力されるようにする研究や、テキスト以外にも画像などを入力とするようなマルチモーダル化の研究も進められています。

(Q4)D

【2023#1における選択肢別解答率】
 A:17.4%、B:0.5%、C:0.2%、D:82.0%

【解説】
[ 生成AIのメディア形式 ]
生成AIのコンセプトの適用範囲は、特定のメディア形式に限定されません。テキスト、画像、音声、3Dなど、さまざまなメディア形式に適用が可能です。
現時点では、テキストと画像の生成が主流であり、音声や3Dに関してはまだ研究段階でその実用化には時間がかかる可能性があります。しかし、生成AIの進化に伴い、より多くのメディア形式への適応が期待されています。生成AIの真の力は、学習データのパターンや特徴を把握し、それに基づいて新たなデータを生成する能力にあるためです。

(Q5)B, C

【2023#1における選択肢別解答率】
 A:3. 7%、B:98.3%、C:95.5%、D:15.2%

【解説】
[ 生成AIが高い価値を生み出すユースケースの導き出し方 ]
生成AIが人間に置き換わる可能性についての警鐘が多く聞かれますが、生成AIの活用の影響は人員の削減のみにとどまりません。特定の作業を生成AIに肩代わりしてもらうことで、人間のアウトプットの質を高めることができたり、これまで人間が実現できなかった製品やサービス、そして新しい雇用が生み出される可能性も示唆されています。
人間とAIの優れた部分とそうでない部分を理解するように努め、両者が共同して新しいユースケースを作り出していけることを認識することが重要です。
また、現時点において生成AIのアプリケーションはプロンプトを用いたチャット型のインターフェースを持つものが多いですが、そうではないアプリケーションも多く考えられます。例えば、ファイルをインターフェースとして内容を自動的に翻訳するアプリケーションなどが考えられます。

(Q6)A, B, C, D, E

【2023#2における選択肢別回答率】
 A : 95.4%、B : 95.4%、 C : 49.0%、 D : 96.9%、 E : 90.6%

【解説】
[ 生成AI 導入時の評価・検討事項 ]
企業が生成AI を導入する際に、外部のサービス(例:ChatGPT)を利用するか、オープンソースのモデルをカスタマイズして使用するかの決定においては、いくつか重要な評価ポイントがあります。まず、自社で取り扱う秘匿性の高いデータのセキュリティとプライバシーを確保するため、データの利用方針を厳密に検討する必要があります。外部サービスを利用するとデータが外部に送信されるリスクがありますが、オープンソースのモデルを自社で管理することで、これらのリスクを軽減できます。次に、モデルの利用に関連するコストを考慮し、外部サービスの利用料金や、オープンソースモデルの運用コストを比較して選択する必要があります。利用する言語や想定される用途に対しモデルが十分な精度を発揮できるのかなど、モデルの性能面での評価も重要です。モデルがリリースされてからの経過時間も考慮に入れるべきで、新しいモデルは最新の技術を利用して性能が良い可能性がありますが、安定性や互換性の問題があるかもしれません。逆に古いモデルは安定している可能性がありますが、性能が劣るかもしれません。最後に、法的な問題を避けるために、利用する AI の利用規約をしっかりと確認し、理解する必要があります。これらのポイントを総合的に考慮して、企業のニーズに最も適した選択を行うことが重要です。

(Q7)A

【2023#1における選択肢別解答率】
 A:80.8%、B:9.2%、C:8.3%、D:1.4%

【解説】
[ 生成AIの公平性リスク ]
生成AIは学習データに含まれるデータの偏りを学習してしまう可能性があるため、生成AIの出力の精度や内容に偏りが含まれる場合があります。これは生成AIの公平性のリスクやバイアスの問題として知られています。
例えば、生成AIに入力される言語やトピックによって、生成AIから出力される内容や正確性が異なったり、特定の性別や年齢、人種、職業などのグループに対して、偏りのある結果が生成される可能性があります。このような問題は、生成AIが個人に関する情報を基に判断や予測を行う用途 (例えば、人事採用やローンの承認など) において特に問題になり得ます。
生成AIを利用する際は、生成AIがこれら公平性のリスクやバイアスの問題を孕むことを踏まえ、適切な対策を講じることが必要です。

(Q8)A, B, C

【2023#2における選択肢別回答率】
 A : 73.3%、B : 93.6%、 C : 89.0%、 D : 13.4%

【解説】
[ 生成AI への機密情報入力時のリスク対策 ]
生成AI に機密情報を入力することは多くのリスクを伴いますが、正しいリスク対策を行うことでリスクを抑えながら機密情報を生成AI に入力して利用できる可能性があります。リスク対策の主な方法を以下に挙げます。まず、企業における生成AI の利用については、自社が策定する生成AI の利用に関するルールがある場合にはこれに従うことが求められます。他社と秘密保持契約(NDA)を結んで提供を受けた機密情報については、①当該 NDA に定められている利用目的の範囲内で生成AI を利用すること、及び②当該 NDA において、例外規定として生成AI サービスに秘密情報を入力することが NDA 違反にならないことが明記されていることを確認してください。②については、今後はそのような例外規定を含んだ NDA が増加していくことが予想されますが、現時点ではまだそのような内容が明記されている NDA はほとんどないことに注意が必要です。

(Q9)B, C, D

【2023#1における選択肢別解答率】
 A:5.3%、B:98.8%、C:98.8%、D:95.7%

【解説】
[ 生成AIのリスクと規制の動向 ]
生成AIの技術は急速に進歩しており、またその高い汎用性から、今後新たな活用方法が見出され、現時点では認識されていない新たなリスクが出現する可能性があります。
生成AIが孕む多様なリスクや社会への影響の懸念から、生成AIについての規制化の議論も進んでおり、生成AIの活用において認識すべきリスクや規制を適切に把握するためには、継続的に情報収集を行う必要があります。
また、生成AIのサービスはそれぞれ異なる目的や処理内容を持っており、様々な用途で活用できる側面も持つため、法的なリスクの性質や程度は生成AIのサービス、及び利用者の使い方によっても異なることが考えられます。