Rys. 6.9. Widok ekranu programu 06C.BAS po wielu pokazach Granicą pomiędzy tymi obszarami jest - co łatwo uzasadnić - linia prosta, mówimy więc czasem, że pojedynczy neuron dokonuje dyskryminacji liniowej przestrzeni wejść - brzmi to mądrze i tajemniczo, a oznacza dokładnie to, co widziałeś na ekranie w czasie prowadzenia opisanych tu eksperymentów.
Jeden neuron (albo jedna warstwa neuronów) mogą tylko tak właśnie rozdzielać sygnały wejściowe - linią graniczną jest zawsze linia prosta. Wprawdzie kombinując ze sobą takie liniowo rozgraniczone obszary i odpowiednio je ze sobą zestawiając można uzyskać właściwie dowolne wartości zagregowanych sygnałów wyjściowych, stąd w literaturze dotyczącej sieci neuronowych często pojawiają się nieco mylące twierdzenia, że na jednej warstwie neuronów można uzyskać dowolnie dokładną aproksymację dowolnej funkcji. W istocie twierdzenia Cybenki, Hornika, Lapedesa i Farbera oraz wiele podobnych w istocie odwołują się do sieci o większej liczbie warstw, gdyż elementy strukturalne tworzące wymaganą funkcję zbudowane przez uczące się neurony muszą być na końcu zebrane przez przynajmniej jeden neuron wynikowy (najczęściej o charakterystyce liniowej), co powoduje że w istocie sieć opisywana jako rzekomo jednowarstwowa, ma w istocie więcej warstw - przynajmniej dwie, a często trzy. W dodatku twierdzenia mówiące, że taki lub inny efekt można uzyskać na sieci mającej jedną warstwę, nie pokazują metod konkretnego zaprojektowania