parametrów osiągamy gorszą jakość prognozy niż na modelu z mniejszą ich liczbą. Ciekawe jest również zachowanie niektórych algorytmów (np. tych z rozdziału 6), które iteracyjnie generują kolejne prognozy. O ile wartość RM SE na zbiorze treningowym zazwyczaj ciągle maleje, o tyle na zbiorze testowym od pewnego momentu zaczyna rosnąć. Wszystkie wymienione efekty są konsekwencją tego, że większość modeli zbytnio dopasowuje się do danych treningowych, przez co nie jest w stanie generować skutecznie odpowiedzi dla przykładów spoza tego zbioru. Efekt ten często porównywany do uczenia się materiału na pamięć bez zrozumienia go. Tego typu zjawiska określane są ogólnym terminem przeuczenia i są oczywiście wysoko niekorzystne, więc odnośnie do większości algorytmów w pracy przedstawiono stosowne metody ich eliminacji bądź ograniczania.
11