13 KiB
Historia uczenia maszynowego
Sketchnote autorstwa Tomomi Imura
Quiz przed wykładem
🎥 Kliknij obrazek powyżej, aby obejrzeć krótki film omawiający tę lekcję.
W tej lekcji przejdziemy przez najważniejsze kamienie milowe w historii uczenia maszynowego i sztucznej inteligencji.
Historia sztucznej inteligencji (AI) jako dziedziny jest nierozerwalnie związana z historią uczenia maszynowego, ponieważ algorytmy i postępy obliczeniowe, które są podstawą ML, przyczyniły się do rozwoju AI. Warto pamiętać, że chociaż te dziedziny jako odrębne obszary badań zaczęły się krystalizować w latach 50., ważne odkrycia algorytmiczne, statystyczne, matematyczne, obliczeniowe i techniczne poprzedzały i nakładały się na ten okres. W rzeczywistości ludzie zastanawiali się nad tymi zagadnieniami przez setki lat: ten artykuł omawia historyczne intelektualne podstawy idei "myślącej maszyny".
Ważne odkrycia
- 1763, 1812 Twierdzenie Bayesa i jego poprzednicy. To twierdzenie i jego zastosowania są podstawą wnioskowania, opisując prawdopodobieństwo wystąpienia zdarzenia na podstawie wcześniejszej wiedzy.
- 1805 Metoda najmniejszych kwadratów opracowana przez francuskiego matematyka Adriena-Marie Legendre'a. Ta teoria, którą poznasz w naszym module o regresji, pomaga w dopasowywaniu danych.
- 1913 Łańcuchy Markowa, nazwane na cześć rosyjskiego matematyka Andrieja Markowa, służą do opisu sekwencji możliwych zdarzeń na podstawie poprzedniego stanu.
- 1957 Perceptron to rodzaj klasyfikatora liniowego wynaleziony przez amerykańskiego psychologa Franka Rosenblatta, który jest podstawą postępów w uczeniu głębokim.
- 1967 Najbliższy sąsiad to algorytm pierwotnie zaprojektowany do mapowania tras. W kontekście ML jest używany do wykrywania wzorców.
- 1970 Backpropagacja jest używana do trenowania sieci neuronowych typu feedforward.
- 1982 Rekurencyjne sieci neuronowe to sztuczne sieci neuronowe wywodzące się z sieci typu feedforward, które tworzą grafy czasowe.
✅ Zrób małe badania. Jakie inne daty wyróżniają się jako kluczowe w historii ML i AI?
1950: Maszyny, które myślą
Alan Turing, naprawdę niezwykła postać, który został uznany przez opinię publiczną w 2019 roku za największego naukowca XX wieku, jest uznawany za osobę, która pomogła położyć fundamenty pod koncepcję "maszyny, która może myśleć". Zmagał się z krytykami i własną potrzebą empirycznych dowodów na tę koncepcję, częściowo poprzez stworzenie Testu Turinga, który poznasz w naszych lekcjach NLP.
1956: Letni projekt badawczy w Dartmouth
"Letni projekt badawczy w Dartmouth dotyczący sztucznej inteligencji był przełomowym wydarzeniem dla sztucznej inteligencji jako dziedziny", i to właśnie tutaj powstał termin "sztuczna inteligencja" (źródło).
Każdy aspekt uczenia się lub jakakolwiek inna cecha inteligencji może być zasadniczo tak precyzyjnie opisany, że można stworzyć maszynę, która go symuluje.
Główny badacz, profesor matematyki John McCarthy, miał nadzieję "kontynuować na podstawie przypuszczenia, że każdy aspekt uczenia się lub jakakolwiek inna cecha inteligencji może być zasadniczo tak precyzyjnie opisany, że można stworzyć maszynę, która go symuluje." Wśród uczestników był inny wybitny przedstawiciel tej dziedziny, Marvin Minsky.
Warsztat ten jest uznawany za inicjatora i zachętę do wielu dyskusji, w tym "rozwoju metod symbolicznych, systemów skoncentrowanych na ograniczonych domenach (wczesne systemy ekspertowe) oraz systemów dedukcyjnych kontra systemów indukcyjnych." (źródło).
1956 - 1974: "Złote lata"
Od lat 50. do połowy lat 70. panował duży optymizm co do możliwości AI w rozwiązywaniu wielu problemów. W 1967 roku Marvin Minsky stwierdził z przekonaniem, że "W ciągu jednego pokolenia... problem stworzenia 'sztucznej inteligencji' zostanie zasadniczo rozwiązany." (Minsky, Marvin (1967), Computation: Finite and Infinite Machines, Englewood Cliffs, N.J.: Prentice-Hall)
Badania nad przetwarzaniem języka naturalnego kwitły, wyszukiwanie zostało udoskonalone i stało się bardziej efektywne, a koncepcja "mikroświatów" została stworzona, gdzie proste zadania były wykonywane za pomocą instrukcji w zwykłym języku.
Badania były dobrze finansowane przez agencje rządowe, dokonywano postępów w obliczeniach i algorytmach, a prototypy inteligentnych maszyn były budowane. Niektóre z tych maszyn to:
-
Shakey robot, który potrafił się poruszać i decydować, jak wykonywać zadania "inteligentnie".
Shakey w 1972 roku
-
Eliza, wczesny "chatterbot", potrafiła rozmawiać z ludźmi i działać jako prymitywny "terapeuta". Dowiesz się więcej o Elizie w lekcjach NLP.
Wersja Elizy, chatbota
-
"Blocks world" był przykładem mikroświata, w którym bloki mogły być układane i sortowane, a eksperymenty w nauczaniu maszyn podejmowania decyzji mogły być testowane. Postępy zbudowane z bibliotek takich jak SHRDLU pomogły w rozwoju przetwarzania języka.
🎥 Kliknij obrazek powyżej, aby obejrzeć film: Blocks world z SHRDLU
1974 - 1980: "Zima AI"
Do połowy lat 70. stało się jasne, że złożoność tworzenia "inteligentnych maszyn" została niedoszacowana, a jej obietnica, biorąc pod uwagę dostępne moce obliczeniowe, była przesadzona. Finansowanie wyschło, a zaufanie do dziedziny osłabło. Niektóre problemy, które wpłynęły na zaufanie, obejmowały:
- Ograniczenia. Moce obliczeniowe były zbyt ograniczone.
- Eksplozja kombinatoryczna. Liczba parametrów wymaganych do trenowania rosła wykładniczo, gdy więcej wymagano od komputerów, bez równoległego rozwoju mocy obliczeniowej i możliwości.
- Brak danych. Brak danych utrudniał proces testowania, rozwijania i udoskonalania algorytmów.
- Czy zadajemy właściwe pytania?. Same pytania, które były zadawane, zaczęły być kwestionowane. Badacze zaczęli spotykać się z krytyką dotyczącą ich podejścia:
- Testy Turinga zostały zakwestionowane między innymi przez teorię "chińskiego pokoju", która zakładała, że "programowanie cyfrowego komputera może sprawić, że wydaje się rozumieć język, ale nie może wytworzyć prawdziwego zrozumienia." (źródło)
- Etyka wprowadzania sztucznej inteligencji, takiej jak "terapeuta" ELIZA, do społeczeństwa była kwestionowana.
W tym samym czasie zaczęły formować się różne szkoły myślenia AI. Powstała dychotomia między praktykami "scruffy" vs. "neat AI". Laboratoria scruffy godzinami dostosowywały programy, aż osiągnęły pożądane rezultaty. Laboratoria neat "skupiały się na logice i formalnym rozwiązywaniu problemów". ELIZA i SHRDLU były dobrze znanymi systemami scruffy. W latach 80., gdy pojawiło się zapotrzebowanie na uczynienie systemów ML powtarzalnymi, podejście neat stopniowo wysunęło się na pierwszy plan, ponieważ jego wyniki są bardziej wyjaśnialne.
Eksperckie systemy lat 80.
W miarę jak dziedzina się rozwijała, jej korzyści dla biznesu stawały się coraz bardziej oczywiste, a w latach 80. nastąpiła proliferacja "systemów ekspertowych". "Systemy ekspertowe były jednymi z pierwszych naprawdę udanych form oprogramowania sztucznej inteligencji (AI)." (źródło).
Ten typ systemu jest w rzeczywistości hybrydowy, składający się częściowo z silnika reguł definiującego wymagania biznesowe oraz silnika wnioskowania, który wykorzystywał system reguł do dedukcji nowych faktów.
W tej erze zwrócono również większą uwagę na sieci neuronowe.
1987 - 1993: "Chłód AI"
Proliferacja wyspecjalizowanego sprzętu systemów ekspertowych miała niestety efekt nadmiernej specjalizacji. Wzrost popularności komputerów osobistych również konkurował z tymi dużymi, wyspecjalizowanymi, scentralizowanymi systemami. Demokratyzacja obliczeń rozpoczęła się, co ostatecznie utorowało drogę do współczesnej eksplozji big data.
1993 - 2011
Ten okres przyniósł nową erę dla ML i AI, które mogły rozwiązać niektóre problemy spowodowane wcześniej przez brak danych i mocy obliczeniowej. Ilość danych zaczęła gwałtownie rosnąć i stawać się bardziej dostępna, zarówno na dobre, jak i na złe, szczególnie wraz z pojawieniem się smartfona około 2007 roku. Moc obliczeniowa rosła wykładniczo, a algorytmy ewoluowały równolegle. Dziedzina zaczęła dojrzewać, a swobodne dni przeszłości zaczęły krystalizować się w prawdziwą dyscyplinę.
Obecnie
Dziś uczenie maszynowe i AI dotykają prawie każdej części naszego życia. Ta era wymaga dokładnego zrozumienia ryzyk i potencjalnych skutków tych algorytmów dla życia ludzkiego. Jak stwierdził Brad Smith z Microsoftu: "Technologia informacyjna porusza kwestie, które dotykają sedna fundamentalnych ochron praw człowieka, takich jak prywatność i wolność wypowiedzi. Te kwestie zwiększają odpowiedzialność firm technologicznych, które tworzą te produkty. Naszym zdaniem wymagają również przemyślanej regulacji rządowej i rozwoju norm dotyczących akceptowalnych zastosowań" (źródło).
Nie wiadomo, co przyniesie przyszłość, ale ważne jest, aby zrozumieć te systemy komputerowe oraz oprogramowanie i algorytmy, które uruchamiają. Mamy nadzieję, że ten program nauczania pomoże Ci lepiej zrozumieć, abyś mógł samodzielnie podjąć decyzję.
🎥 Kliknij obrazek powyżej, aby obejrzeć film: Yann LeCun omawia historię uczenia głębokiego w tym wykładzie
🚀Wyzwanie
Zgłęb jeden z tych historycznych momentów i dowiedz się więcej o ludziach stojących za nimi. Są to fascynujące postacie, a żadne odkrycie naukowe nigdy nie powstało w kulturowej próżni. Co odkrywasz?
Quiz po wykładzie
Przegląd i samodzielna nauka
Oto materiały do obejrzenia i wysłuchania:
Ten podcast, w którym Amy Boyd omawia ewolucję AI
Zadanie
Zastrzeżenie:
Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI Co-op Translator. Chociaż dokładamy wszelkich starań, aby zapewnić poprawność tłumaczenia, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego języku źródłowym powinien być uznawany za autorytatywne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z korzystania z tego tłumaczenia.