AI: Projekty, które same się zmieniają

AI jest podzbiorem inteligencji komputerowej. Oznacza to, że cała sztuczna inteligencja jest uważana za sztuczną, ale nie cała inteligencja komputerowa jest uważana za SI. Na przykład emblematyczne przesłanki – silniki reguł, ramy główne i wykresy informacyjne – można by przedstawić jako sztuczną inteligencję i żadna z nich nie jest sztuczną inteligencją.

Jednym z aspektów odróżniających sztuczną inteligencję od wykresów informacyjnych i głównych szkieletów jest jej zdolność do samodzielnego zmieniania się, gdy jest przedstawiana w postaci większej ilości informacji; na przykład sztuczna inteligencja jest dynamiczna i nie wymaga ingerencji człowieka w celu wprowadzenia konkretnych ulepszeń. Dzięki temu jest mniej wrażliwa i mniej zależna od ludzkich specjalistów.

Mówi się, że program komputerowy zyskuje na fakcie E, tak jak w przypadku niektórych klas zadań T i miarki wykonania P, jeśli jego wystawa na zlecenie w T, jak szacuje P, poprawia się wraz z doświadczeniem E. – Tom Mitchell

W 1959 roku Arthur Samuel, jeden z pionierów sztucznej inteligencji, określił sztuczną inteligencję jako “pole koncentracji, które umożliwia uczenie się komputerów osobistych bez ich jednoznacznej modyfikacji”. Oznacza to, że programy AI nie zostały wyraźnie wprowadzone do komputera, podobnie jak w przypadku powyższych ogłoszeń. Można powiedzieć, że programy SI zmieniają się w świetle informacji, którym są przedstawiane (jak dziecko, które zostaje wprowadzone do świata, zdając sobie sprawę, że nic nie zmienia jego rozumienia świata z powodu doświadczenia).

Samuel poinstruował program komputerowy, żeby grał w warcaby. Jego celem było wytrenowanie go do gry w warcaby nadrzędnego wobec siebie samego, co oczywiście nie jest czymś, co mógłby zaprogramować jednoznacznie. Udało mu się, a w 1962 roku jego program pokonał zwycięzcę szachownicy z prowincji Connecticut.

Dostosowanie” pewnej części SI oznacza, że obliczenia ML starają się ulepszyć wraz z konkretnym pomiarem; na przykład z reguły starają się ograniczyć błąd lub zwiększyć prawdopodobieństwo, że ich oczekiwania są uzasadnione. Ma to trzy nazwy: praca w błędzie, praca w nieszczęściu lub praca w celu, w świetle faktu, że obliczenia mają cel… Kiedy ktoś mówi, że pracuje z obliczeniami SI, można dotrzeć do istoty jego zachęt, pytając: Jaka jest praca nad celem?

Jak można ograniczyć błąd? Biorąc wszystko pod uwagę, jedną z dróg jest zebranie struktury, która zwiększa wkład do żądania obietnic w odniesieniu do źródeł skłonności informacji. Różne zyski/zobowiązania są wynikami źródeł danych i obliczeń. Ogólnie rzecz biorąc, podstawowe teorie są bardzo pozorne, a w przypadku, gdy masz szczęście, że masz podstawy do nazw prawdy odnoszących się do informacji, możesz ocenić, jak błędne są twoje szacunki, odróżniając je od rzeczywistości, a następnie wykorzystać ten błąd do zmiany obliczeń. To jest właśnie to, co robią systemy neuronowe. Nadal szacują błąd i zmieniają swoje parametry, aż nie będą w stanie osiągnąć mniej błędów.

Są one, mówiąc wprost, ulepszeniem obliczeń. Na wypadek, gdybyś dostroił je prawidłowo, ograniczają one swój błąd spekulując i spekulując i spekulując jeszcze raz.

Głęboka Adaptacja: Większa precyzja, więcej matematyki i więcej figury.

Głębokie uczenie się jest podzbiorem SI. Z reguły, gdy jednostki używają terminu “głębokie uczenie się”, odnosi się on do głębokich fałszywych systemów nerwowych, a w mniejszym stopniu do głębokiego uczenia się fortyfikacji.

Głębokie fałszywe systemy neuronowe to wiele obliczeń, które ustanowiły nowe precedensy w precyzji w niektórych istotnych kwestiach, na przykład potwierdzenie obrazu, potwierdzenie dźwięku, ramy rekomendacji, wspólne posługiwanie się językiem i tak dalej. Na przykład, głębokie uczenie się jest kawałkiem wybitnych obliczeń DeepMind AlphaGo, które pobiły poprzedniego posiadacza tytułu Lee Sedola w Go w połowie 2016 roku, a obecnego najlepszego na planecie Ke Jie w połowie 2017 roku. Coraz pełniejsze wyjaśnienie dzieł neuronowych jest tutaj.

Głęboki to specjalistyczny termin. Odnosi się do liczby warstw w układzie neuronowym. Płytka organizacja ma jedną rzekomo spowitą warstwę, a głęboki system ma wiele warstw. Różne ukryte warstwy umożliwiają głębokim systemom neuronaukowym poznanie najważniejszych informacji w rzekomej kolejności podziurawiania składników, ponieważ podstawowe wyróżniki (np. dwa piksele) łączą się ze sobą, zaczynając od jednej warstwy, a następnie przechodząc do następnej, aby stopniowo kadrować złożone wyróżniki (np. linię). Sieci z licznymi warstwami przekazują informacje wejściowe (wyróżnione elementy) w ramach większej liczby zadań naukowych niż sieci z prawie wszystkimi warstwami i w związku z tym są bardziej skoncentrowane obliczeniowo w celu przygotowania. Intensywność obliczeniowa jest jedną z oznak dogłębnego uczenia się i jest jedną z motywacji, która stoi za tym, że do przygotowania dogłębnych modeli uczenia się poszukiwane są innego rodzaju procesory graficzne do wywoływania układów scalonych.

Można więc zastosować podobną definicję do dogłębnego odkrycia, które Arthur Samuel zrobił z AI – “polem koncentracji umożliwiającym komputerom PC uczenie się bez wyraźnego dostosowywania” – dodając jednocześnie, że ogólnie rzecz biorąc, będzie to skutkowało większą precyzją, będzie wymagało więcej sprzętu lub czasu na przygotowanie i będzie działać szczególnie dobrze w przedsięwzięciach rozeznawania maszyn, które obejmują nieuporządkowane informacje, na przykład masy pikseli lub treści.

Co jest następne w przypadku sztucznej inteligencji?

Postępy poczynione przez naukowców z DeepMind, Google Mind, OpenAI i różnych uczelni są coraz szybsze. Symulowana inteligencja nadaje się do zajmowania się coraz trudniejszymi zagadnieniami, przewyższającymi wszystko, co potrafią ludzie.

Oznacza to, że sztuczna inteligencja zmienia się szybciej, niż można skomponować jej historię, więc prognozy dotyczące jej przyszłości również stają się natychmiast nieaktualne. Czy dążymy do osiągnięcia czegoś takiego jak rozszczepienie atomu (możliwe), czy też staramy się wykręcać wgląd w krzem stopniowo, jak próba przekształcenia ołowiu w złoto?1

Istnieją cztery główne sposoby myślenia, a może święte miejsca przekonań, które gromadzą razem to, jak jednostki mówią o inteligencji stworzonej przez człowieka.

Jednostki, które zaakceptują, że symulowany postęp inteligencji będzie postępował w szybkim tempie, będą generalnie rozważać solidną inteligencję opartą na komputerze i czy jest ona użyteczna dla ludzkości. Wśród jednostek, które domyślają się, że postęp nastąpił, jeden obóz akcentuje zalety coraz bardziej bystrego programowania, które może uchronić ludzkość od obecnych głupot; drugi obóz podkreśla egzystencjalne niebezpieczeństwo geniuszu.

Biorąc pod uwagę, że intensywność inteligencji komputerowej rozwija się nierozłącznie z intensywnością urządzeń obliczeniowych, napędza granicę obliczeniową, na przykład lepsze chipy lub przetwarzanie kwantowe, ustąpi miejsca postępowi w sztucznej inteligencji. Na prostym poziomie algorytmicznym, większość szokujących wyników osiąganych przez laboratoria, na przykład DeepMind, pochodzi z połączenia różnych sposobów radzenia sobie ze sztuczną inteligencją, tak samo jak AlphaGo konsoliduje głębokie uczenie się i uczenie się fortyfikacji. Połączenie głębokiego uczenia się z myśleniem reprezentatywnym, analogicznym, bajesowskim i transformacyjnym daje gwarancję.

Osoby, które nie akceptują faktu, że inteligencja komputerowa zdobywa tyle gruntu w porównaniu z ludzką wnikliwością, oczekują kolejnej zimy inteligencji stworzonej przez człowieka, podczas której finansowanie wyparuje z powodu dużych i frustrujących wyników, jak to miało miejsce wcześniej. Ogromna liczba tych osób ma podejście lub kalkulacje zwierzęce, które zmaga się z głębokim uczeniem się.

W końcu są realiści, zatrzymujący się na matematyce, walczący z chaotyczną informacją, rzadkimi symulacjami inteligencji i uznaniem klientów. Są minimalnie rygorystyczni w stosunku do zgromadzeń dokonujących prognoz dotyczących inteligencji komputerowej – po prostu zdają sobie sprawę, że jest to trudne.