Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
学ぶ 大規模言語モデルがプロンプトを理解する方法 | プロンプトエンジニアリングの基礎
プロンプトエンジニアリング基礎

book大規模言語モデルがプロンプトを理解する方法

メニューを表示するにはスワイプしてください

大規模言語モデル(LLM)は、入力テキストをトークンと呼ばれる小さな単位に分解してプロンプトを処理。モデルはこれらのトークンを用いて指示の意味や文脈を理解し、大量のデータから学習したパターンに基づいて応答を生成。

Note
定義

トークンは、モデルが個別に処理するテキストの一部(単語や単語の一部など)。

LLMは人間のように「考える」ことはしない。入力プロンプトと学習データに基づき、次に来る単語やフレーズを予測

プロンプトが長すぎる場合、モデルは入力の前半部分を無視することがある。この入力のサイズはコンテキストウィンドウと呼ばれる。

Note
定義

コンテキストウィンドウは、LLMが応答を生成する際に一度に考慮できるトークンの最大数。

Write a poem about the ocean と尋ねると、モデルは各単語をトークンとして解釈し、コンテキストを利用して関連する詩を生成する。さらに Write a four-line poem about the ocean using vivid imagery のように詳細を追加すると、モデルは追加されたコンテキストを活用して応答を調整する。

Note
ワンポイント

コンテキストウィンドウを意識することで、長いプロンプトで重要な情報が失われるのを防ぐことができる。

question mark

LLMにおけるトークンとは何か?

正しい答えを選んでください

すべて明確でしたか?

どのように改善できますか?

フィードバックありがとうございます!

セクション 1.  2

AIに質問する

expand

AIに質問する

ChatGPT

何でも質問するか、提案された質問の1つを試してチャットを始めてください

セクション 1.  2
some-alt