Co to jest słaba AI
Słaba AI lub wąska AI to inteligencja maszyny ograniczona do określonego lub wąskiego obszaru. Słaba sztuczna inteligencja (AI) symuluje ludzkie poznanie i przynosi korzyści ludzkości, automatyzując czasochłonne zadania i analizując dane w sposób, którego ludzie czasami nie potrafią.
ŁAMANIE Słaba AI
Słaba sztuczna inteligencja nie ma ludzkiej świadomości, choć może być w stanie ją zasymulować. Klasyczną ilustracją słabej sztucznej inteligencji jest eksperyment myśli chińskiej Johna Searle'a. Eksperyment ten mówi, że osoba spoza pokoju może być w stanie przeprowadzić rozmowę w języku chińskim z osobą w pokoju, która otrzyma instrukcje, jak odpowiedzieć na rozmowy w języku chińskim. Wydaje się, że osoba w pokoju mówi po chińsku, ale tak naprawdę nie potrafiłaby mówić ani zrozumieć tego słowa bez instrukcji, które są karmione. Jest tak, ponieważ osoba ta dobrze postępuje zgodnie z instrukcjami, a nie mówi po chińsku. Mogą wydawać się mieć Silną AI - inteligencję maszynową równoważną ludzkiej inteligencji - ale tak naprawdę mają tylko Słabą AI.
Wąskie lub słabe systemy AI nie mają ogólnej inteligencji; mają określoną inteligencję. Sztuczna inteligencja, która jest ekspertem od mówienia, jak prowadzić z punktu A do punktu B, zwykle nie jest w stanie wyzwać cię do gry w szachy. A sztuczna inteligencja, która udaje, że rozmawia z tobą po chińsku, prawdopodobnie nie może zamiatać twoich podłóg.
Słaba sztuczna inteligencja pomaga przekształcić duże zbiory danych w przydatne informacje poprzez wykrywanie wzorców i przewidywanie. Przykłady obejmują kanał informacyjny Facebooka, sugerowane zakupy Amazon i Siri Apple, technologię iPhone'a, która odpowiada na pytania użytkowników. Filtry spamu e-mail to kolejny przykład słabej sztucznej inteligencji, w której komputer używa algorytmu, aby dowiedzieć się, które wiadomości mogą być spamem, a następnie przekierowuje je ze skrzynki odbiorczej do folderu ze spamem.
Ograniczenia słabej AI
Problemy ze słabą AI oprócz jej ograniczonych możliwości obejmują możliwość wyrządzenia szkody w przypadku awarii systemu - pomyśl o samochodzie bez kierowcy, który źle oblicza lokalizację nadjeżdżającego pojazdu i powoduje śmiertelną kolizję - oraz możliwość wyrządzenia szkody, jeśli system jest używany przez ktoś, kto chce wyrządzić krzywdę - na przykład terrorysta, który używa samobieżnego samochodu do rozmieszczania materiałów wybuchowych w zatłoczonym obszarze. Innym problemem jest ustalenie, kto ponosi winę za awarię lub wadę projektową.
Kolejnym problemem jest utrata miejsc pracy spowodowana automatyzacją coraz większej liczby zadań. Czy bezrobocie gwałtownie wzrośnie, czy społeczeństwo wymyśli nowe sposoby produktywności ekonomicznej? Choć perspektywa utraty przez pracowników znacznego odsetka miejsc pracy może być przerażająca, uzasadnione jest oczekiwanie, że gdyby tak się stało, pojawią się nowe miejsca pracy, których nie jesteśmy jeszcze w stanie przewidzieć, ponieważ wykorzystanie AI staje się coraz bardziej rozpowszechnione.
