Wprowadzenie do sztucznej inteligencji 

 

Co to jest Sztuczna Inteligencja?

Kiedy słyszymy "sztuczna inteligencja" (z ang. artificial intelligence, AI) to często wyobrażamy sobie zaawansowane roboty lub komputery z filmów science fiction. To tego nauczyła nas telewizja i Internet. Jednak prawdziwa AI, która otacza nas każdego dnia, jest bardziej subtelna, ale równie rewolucyjna. Sztuczna inteligencja to dziedzina informatyki, która dąży do stworzenia maszyn zdolnych do wykonania zadań, które tradycyjnie wymagałyby ludzkiej inteligencji – takich jak rozumienie mowy, uczenie się, planowanie i rozwiązywanie problemów, a nawet twórczość (łączona z kreatywnością).

Bardziej obrazowo można powiedzieć, że AI może być tak prosta jak system, który rekomenduje produkty na podstawie wcześniejszych zakupów, lub tak złożona jak autonomiczny pojazd, który potrafi samodzielnie poruszać się po skomplikowanym środowisku.

 

Sztuczna Inteligencja (AI), a Uczenie Maszynowe (ML)

Jak już wcześniej zostało zaznaczone, w ostatnim czasie sztuczna inteligencja odmieniana jest przez wszystkie przypadki - szeroko poruszana w mediach społecznościowych, telewizji, gazetach, na różnych spotkaniach i konferencjach. Tak dynamiczny rozwój zainteresowania jakimkolwiek tematem rodzi ryzyko wprowadzenia do obiegu błędów, które w szybkim tempie będą powielane. I to ryzyko zmaterializowało się również w zakresie sztucznej inteligencji. Tym największym przeinaczeniem, z którym mamy do czynienia jest używanie pojęcia sztucznej inteligencji i uczenia maszynowego niczym synonimów.  Choć faktycznie są one ze sobą ściśle związane, ważne jest zrozumienie, że się różnią, czym się różnią i co każda z nich wnosi do świata technologii.

Czym jest sztuczna inteligencja wyjaśniliśmy sobie przed chwilą, przyjrzyjmy się zatem definicji uczenia maszynowego. Uczenie maszynowe jest poddziedziną AI i odnosi się do metod, w których maszyny uczą się z danych i doświadczeń, a następnie stosują nauczone wzorce do podejmowania decyzji lub przewidywania. W przeciwieństwie do tradycyjnego programowania, gdzie zachowanie maszyny jest ściśle określone przez instrukcje programistyczne, ML pozwala maszynie na "naukę" i dostosowanie się do nowych sytuacji bez bezpośredniej interwencji człowieka.

Gdzie jest zatem różnica między AI, a ML?

  • W ZAKRESIE: AI jest szerszym pojęciem, które obejmuje każdy rodzaj inteligentnego działania maszyn, podczas gdy ML jest specyficznym podejściem stosowanym do osiągnięcia AI. Zatem można powiedzieć, że ML jest jedną z kluczowych technik realizacji AI. Wiele współczesnych zastosowań AI, od analizy danych po automatyczne systemy reagowania, opiera się na modelach uczenia maszynowego;
  • W METODOLOGII I IMPLEMENTACJI: ML polega na tworzeniu modeli matematycznych, które maszyna może wykorzystać do uczenia się ze zbiorów danych. Metody te mogą obejmować uczenie nadzorowane, nienadzorowane oraz ze wzmocnieniem. AI zaś wykorzystuje te modele (i inne narzędzia) do tworzenia systemów, które mogą wykonywać zadania związane z inteligencją. Oznacza to, że ML jest bardziej skupione na analizie danych i wykrywaniu wzorców, podczas gdy AI dotyczy szerszego spektrum aplikacji, w tym rozumowania, interpretacji języka naturalnego, a nawet kreatywności;
  • W ZALEŻNOŚCI I KOMPLEMENTARNOŚCI: W praktyce ML jest kluczowym elementem, który umożliwia wielu aplikacjom AI osiąganie ich celów. Na przykład, system AI do rozpoznawania mowy wykorzystuje modele ML do analizy i interpretacji ludzkiej mowy. Podobnie, inteligentne systemy rekomendacji w e-commerce wykorzystują ML do analizy wzorców zakupowych i preferencji użytkowników, ale to AI koordynuje cały proces rekomendacji.

 

Podsumowując, ML jest jak silnik, który napędza wiele aplikacji AI, dostarczając im zdolności do uczenia się i adaptacji. AI zaś stanowi szerszy kontekst, w którym te zdolności są wykorzystywane do tworzenia inteligentnych systemów, zdolnych do wykonywania różnorodnych, złożonych zadań.

 

Dla zobrazowania, zależności te można przedstawić następująco:

W tym miejscu warto również wyjaśnić sobie czym jest głębokie uczelnie (z ang. deep learning). Trafnym jest powiedzieć, że to specjalistyczna poddziedzina ML, która wykorzystuje sieci neuronowe o wielu warstwach (stąd nazwa "głębokie") do modelowania złożonych wzorców w danych. Głębokie sieci neuronowe są szczególnie skuteczne w rozumieniu danych wejściowych o dużej złożoności, takich jak obrazy, dźwięk czy język naturalny. Technologia ta naśladuje sposób, w jaki ludzki mózg interpretuje i przetwarza informacje, co pozwala na realizację bardziej zaawansowanych zadań, takich jak rozpoznawanie obrazów czy przetwarzanie języka naturalnego.

 

Była sobie Sztuczna Inteligencja, czyli krótko o historii

Czy to, że temat sztucznej inteligencji tak szeroko poruszany jest od kilku miesięcy oznacza, że wcześnie nic się nie działo? NIE! Sprawdźmy razem krótki timeline historii o AI:

  • Wszystko rozpoczyna się od naukowych spekulacji i teoretycznych prac (można wręcz powiedzieć, że od zwykłej ludzkiej ciekawości). Bo w latach 40. i 50. XX wieku naukowcy tacy jak Alan Turing zaczęli zastanawiać się, czy maszyny mogą myśleć. To on zaproponował słynny test Turinga jako sposób na ocenę inteligencji maszyny, pytając, czy może ona prowadzić rozmowę nierozróżnialną od tej prowadzonej przez człowieka.
  • W latach 50. i 60. naukowcy zaczęli tworzyć pierwsze programy, które mogły symulować niektóre aspekty ludzkiego myślenia. Jednym z pierwszych był program do gry w szachy, a później powstały te bardziej zaawansowane, takie jak ELIZA – program symulujący rozmowę, który mógł imitować psychoanalityka (czy faktycznie zachęciła użytkownika do popełnia samobójstwa pozostawimy na inne rozważania).
  • Lata 70. i 80. to okres charakteryzujący się zarówno znaczącymi postępami, jak i wyzwaniami. Z jednej strony rozwinęły się metody reprezentacji wiedzy i rozumowania w AI, z drugiej – zderzono się z ograniczeniami technologii i przesadnymi oczekiwaniami, co doprowadziło do tzw. "zimy AI", okresu spowolnienia badań i finansowania.
  • W latach 90. nastąpiło odrodzenie zainteresowania AI, głównie dzięki postępom w dziedzinie uczenia maszynowego i sieci neuronowych. Komputery stały się szybsze i bardziej dostępne, co pozwoliło na przetwarzanie większych zbiorów danych i rozwój bardziej zaawansowanych algorytmów.
  • W XXI wieku sztuczna inteligencja doświadczyła znaczącego rozwoju, który przekształcił ją z dziedziny badawczej w siłę napędową innowacji w wielu sektorach. Na początku omawianego okresu nastąpił ogromny skok w mocy obliczeniowej oraz zdolności przechowywania danych. Dostęp do dużych ilości danych, zwanych „big data” oraz rozwój bardziej wydajnych procesorów pozwolił na bardziej zaawansowane zastosowania AI. Kluczowym momentem dla AI były postępy w uczeniu maszynowym. Sieci neuronowe, szczególnie te z wieloma warstwami (głębokie sieci neuronowe), umożliwiły maszynom uczenie się z niespotykaną dotąd efektywnością. Kolejnym ważnym aspektem wpływającym na tak dynamiczny rozwój AI jest zastosowanie jej komercyjne i społeczne – technologia ta zaczęła być wykorzystywana w wielu dziedzinach życia, od rekomendacji produktów w sklepach internetowych, przez autonomiczne pojazdy, aż po osobistego asystenta. Do pracy, do uczenia się, czy z czystej ciekawości ludzie zaczęli sięgać po różne modele, a udostępnienie narzędzi Midjourney, czy ChatGPT sprawiły, że poniekąd obecnie sztuczna inteligencja jest na wyciągnięcie naszej ręki, ruch myszki, czy dźwięk klawisza. XXI wiek to także czas, w którym wiele krajów i globalnych korporacji rozpoczęło inwestowanie znaczących zasobów w rozwój AI. Stało się to częścią szerszej rywalizacji o technologiczną dominację, co przyspieszyło innowacje i rozwój w tej dziedzinie.

 

Rozwój AI w XXI wieku to fascynująca historia postępu technologicznego, rosnącej integracji z życiem codziennym i coraz większego wpływu na decyzje biznesowe, społeczne i osobiste. Jest to kontynuacja podróży, która rozpoczęła się wiele dekad temu, ale która w ostatnich latach nabrała niebywałej dynamiki i znaczenia. To jest moment, kiedy zmienia się i również rozwija wachlarz cyberzagrożeń zarówno w aspekcie finansowym, jak i bezpieczeństwa danych.

 

Sztuczna inteligencja w liczbach!

Jak mówił Albert Einstein „Nie wszystko, co można policzyć, liczy się, i nie wszystko, co się liczy, można policzyć.”, idealnie obrazuje to, że nie wszystkie aspekty sztucznej inteligencji można podać w liczbach, przyjrzyjmy się jednak temu co zostało statystycznie zmierzone.

Na podstawie raportu „AI i rynek pracy w Polsce” autorstwa RocketJobs.pl, Just Join IT i CPL dowiadujemy się, że około 77,36% ankietowanych uważa, że AI może być zarówno szansą, jak i zagrożeniem na rynku pracy, przy czym ponad 90% spodziewa się, że część obecnych profesji odejdzie do lamusa. Z kolei blisko 70% respondentów spodziewa się, że nowa sytuacja zawodowa wiąże się z nowymi wyzwaniami, z czego 62.26% oczekuje zwiększenia produktywności, a 53.77% większego komfortu pracy dzięki zmniejszeniu powtarzalnych zadań. Z kluczowych obaw związanych z rozwojem AI do najważniejszych obaw należą trudności w sprawowaniu kontroli nad rozwojem technologicznym (37.74%), zwiększenie monitoringu pracy (25.47%), oraz wzrost poziomu stresu u pracowników (21.70%). Jak podaje Precedence Research wartość rynkowa AI osiągnęła 119,78 miliarda dolarów w 2022 roku. Rynek ma osiągnąć wartość 1,597.1 miliarda dolarów do 2030 roku, z rocznym tempem wzrostu (CAGR) na poziomie 38.1% od 2022 do 2030 roku​​. Rozmiar rynku oprogramowania AI wyniósł 138,4 miliarda dolarów w 2022 roku. Przewiduje się, że roczne tempo wzrostu AI w latach 2020-2027 wyniesie 33.2%​.

 

Dlaczego sztuczna inteligencja to szansa i zagrożenie w jednym pakiecie?

AI ma ogromny potencjał w przekształcaniu niemal każdej dziedziny naszego życia i pracy. Od zdrowia, gdzie może pomagać w diagnozowaniu chorób, po transport, gdzie autonomiczne pojazdy mogą zmienić sposób, w jaki podróżujemy. Jednak te możliwości wiążą się z wyzwaniami, zwłaszcza w zakresie etyki, prywatności i bezpieczeństwa. Rozwój kampanii przestępczych, doskonalenie treści wiadomości phishingowych, tworzenie nagrań głosowych i video imitujących nieświadome tego osoby czy niezamierzone, ale niebezpieczne przetwarzanie wrażliwych danych to tylko wierzchołek góry lodowej zagrożeń z jakimi nam wszystkim przyjdzie się mierzyć.