在理想情況下,隨著(zhù)訓練數據量的據量增(zeng)加,模型的性能會(huì )逐漸提高,這種提升并不是線(xiàn)性的,在某個(gè)點(diǎn)之后,增加更多的數據可能只會(huì )帶來(lái)微小的性能提升,這被稱(chēng)為"邊際收益遞減"。