知能爆発(ちのうばくはつ、英: intelligence explosion)とは、人工知能(AI)が自己改善を繰り返すことによって急速に知能を高め、人間の知能を遥かに超える状態を指します。この概念は、1950年代に数学者でありコンピューター科学者でもあったジョン・フォン・ノイマンや、英国の数学者・暗号解読者であるアラン・チューリングによって最初に提唱されました。
知能爆発が起こると考えられるシナリオでは、AIが自己設計・自己改良の能力を持ち、これにより次第により賢く、効率的なバージョンのAIを作成するサイクルが発生します。このプロセスが繰り返されることで、知能の向上が加速し、結果的に爆発的な知能の進化が起こるとされています。
知能爆発は、倫理的・社会的・安全保障上の重大な問題を引き起こす可能性があるとされています。そのため、AI研究者や倫理学者は、AIの安全な開発と制御の重要性について議論を重ねています。