大規模言語モデル(Large Language Model, LLM)は、膨大な量のテキストデータを基にして自然言語処理を行うAIモデルです。これらのモデルは、文章の生成、質問応答、翻訳、要約など、多岐にわたるタスクを処理するために利用されます。LLMは数億から数千億のパラメータを持ち、大量のデータを学習することで、高度な言語理解と生成能力を持つようになります。
代表的な大規模言語モデルには、GPT(Generative Pre-trained Transformer)シリーズ、BERT(Bidirectional Encoder Representations from Transformers)などがあり、それぞれ異なるアーキテクチャや目的で設計されています。
これらのモデルは、事前学習(pre-training)とファインチューニング(fine-tuning)という二段階の学習プロセスを経て、特定のタスクに適用されることが多いです。事前学習では一般的なテキストデータを使ってモデルが言語のパターンを学び、ファインチューニングでは特定のタスクやドメインに合わせてモデルを微調整します。