Mixture of Experts(專家混合模型)係人工智能模型架構一種,將多個「專家模型」組合喺一齊,每個專家專門處理某類輸入。再由一個「閘門模型」負責決定各個專家喺處理某個輸入時出幾多力。呢種方法可以令模型更靈活、高效,尤其適合應對複雜同多樣化嘅任務。