Sztuczna inteligencja dla dobra człowieka i środowiska, czyli lista (samooceny) AI

Sztuczna inteligencja a przyszłość ludzkości

Sztuczna inteligencja (AI) to hasło odmieniane przez wszystkie przypadki od co najmniej połowy XX wieku. Początkowo o AI pisali pisarze fantaści, ewentualnie futurolodzy. Potem na temat algorytmów sztucznej inteligencji zaczęli rozwodzić się matematycy, a w ślad za nimi poszli informatycy. Teraz o uczeniu maszynowym (ML) mówią nie tylko programiści, ale także menedżerowie czy spece od PR. Co sprawiło, że “myślące komputery” zawładnęły naszą wyobraźnią, a potem biznesplanami?

Systemy korzystające z algorytmów sztucznej inteligencji są coraz popularniejsze w wielu gałęziach przemysłu, ale też w naszym codziennym życiu. Postęp w tej dziedzinie jest bardzo szybki i to, co jeszcze 10 czy 20 lat temu wydawało się wyłącznie fantastyką naukową, jest obecnie rutynowym elementem skryptów analizujących zdjęcia czy przeglądających nasze e-maile… no właśnie – czy nie wydaje się to trochę za daleko idące? Obecność AI wyraźnie zmienia rzeczywistość, w której żyjemy, a większość analityków zgadza się, że to dopiero początek.

Czym jest sztuczna inteligencja?

To zależy od tego, kogo o to zapytać. W latach pięćdziesiątych ojcowie tego pola badań – Minsky i McCarthy – opisali sztuczną inteligencję jako każde zadanie wykonywane przez program lub maszynę, które, gdyby było wykonywane przez człowieka, wymagałoby od niego użycia inteligencji. Jest to oczywiście dość ogólna definicja, która dotyczyć może wielu systemów. Co więc naprawdę jest sztuczną inteligencją, a co nie?

Systemy AI zazwyczaj wykazują przynajmniej niektóre z następujących zachowań związanych z ludzką inteligencją: planowanie, uczenie się, rozumowanie, rozwiązywanie problemów, reprezentację wiedzy, percepcję, ruch i manipulację oraz, w mniejszym stopniu, inteligencję społeczną i kreatywność. Ta definicja pozwala lepiej zarysować problematykę systemów sztucznej inteligencji.

Wykorzystywane obecnie systemy sztucznej inteligencji są niemalże wyłącznie systemami tzw. wąskiej sztucznej inteligencji (lub słabej sztucznej inteligencji), ponieważ są zaprojektowane do wykonywania bardzo wąskiego zakresu zadań, np. tylko do rozpoznawania twarzy, tylko wyszukiwania danych w Internecie lub tylko do samodzielnego prowadzenia samochodu. Długoterminowym celem wielu badaczy jest stworzenie tak zwanej ogólnej sztucznej inteligencji (AGI lub silnej AI). Podczas gdy wąska sztuczna inteligencja może przewyższać ludzi w jednej, wąskiej dziedzinie, grze w szachy lub rozwiązywaniu równań, to system silnej AI przewyższa ludzi w prawie każdym zadaniu poznawczym.

Od SIRI po samochody autonomiczne – sztuczna inteligencja rozwija się bardzo szybko, zwłaszcza systemy słabej AI. Podczas gdy science fiction często przedstawia AI jako roboty o cechach podobnych do ludzkich, a więc systemy silnego Al, to jednak wokół nas najczęściej spotykamy przykłady wąskiego AI, które mogą obejmować rozmaite systemy – od algorytmów wyszukiwania Google, przez Watsona IBM, po broń czy pojazdy autonomiczne.

Aplikacje i wykorzystanie systemów AI

Tak jak opisano powyżej, na podstawowym poziomie sztuczną inteligencję można podzielić na dwa typy: wąską i ogólną AI w zależności od tego, na ile dany system jest wyspecjalizowany w wykonywaniu jakiejś czynności. Wąska sztuczna inteligencja jest tym, co widzimy dzisiaj w komputerach: inteligentne systemy, które zostały nauczone lub nauczyły się wykonywać określone zadania bez wyraźnego zaprogramowania. Ten rodzaj inteligencji jest stosowany w systemach rozpoznawania mowy czy języka naturalnego, w systemach rozpoznawania elementów na obrazie, których używa się np. w samochodach autonomicznych, w systemach rekomendacji reklam sugerujących odbiorcom produkty, które rzeczywiście mogą im się spodobać (bazując na tym, co kupowali w przeszłości, ale także na podstawie ich aktywności np. w portalach społecznościowych).

W przeciwieństwie do ludzi wąskie systemy sztucznej inteligencji jakkolwiek mogą się uczyć, są w stanie robić to jedynie w bardzo wąskiej, wyspecjalizowanej dziedzinie – stąd ich nazwa. Istnieje wiele zastosowań dla tego rodzaju systemów AI: interpretacja sygnałów wideo z dronów przeprowadzających inspekcje wizualne, organizowanie kalendarzy osobistych i biznesowych, odpowiadanie na proste zapytania w ramach systemów obsługi klienta, koordynacja z innymi inteligentnymi systemami w celu wykonywania zadań takich jak rezerwacja hotelu w odpowiednim czasie i miejscu, pomaganie radiologom w wykrywaniu potencjalnych guzów w obrazach rentgenowskich, oznaczanie nieodpowiednich treści w Internecie, wykrywanie zużycia wind… lista jest bardzo długa.

Ogólna sztuczna inteligencja jest rodzajem elastycznego intelektu, takiego, jaki spotykamy u ludzi. To forma inteligencji zdolna do uczenia się, jak wykonywać bardzo zróżnicowane zadania – od strzyżenia ludzi po tworzenie arkuszy kalkulacyjnych lub rozumowanie na podstawie zgromadzonego doświadczenia. Jest to rodzaj sztucznej inteligencji częściej spotykany w filmach – HAL czy Skynet, ale takie systemy nie istnieją. Eksperci AI są podzieleni w kwestii tego, jak szybko uda się je stworzyć i czy w ogóle jest to możliwe do realizacji.

Internet Rzeczy, a sztuczna inteligencja

Analitycy systemów Internetu Rzeczy (IoT) wyliczyli, że na świecie istnieje ponad 17 miliardów połączonych urządzeń, z czego ponad 7 miliardów z nich stanowi systemy Internetu Rzeczy. IoT to zbiór różnych czujników, urządzeń i innych technologii, które nie mają na celu bezpośredniej interakcji z konsumentami, tak jak telefony czy komputery. Urządzenia IoT pomagają w dostarczaniu informacji, kontroli i analizie i w lepszym połączeniu ze sobą świata urządzeń i Internetu. Wraz z pojawieniem się tanich czujników i systemów, a także energooszczędnych interfejsów bezprzewodowych, takich jak LoRa czy NB-IoT, technologia IoT rozprzestrzenia się.

W związku z tym firmy są zalewane danymi i szukają rozwiązań tego problemu w systemach sztucznej inteligencji. Ma to pomóc w zarządzaniu urządzeniami IoT, a także pozwolić uzyskać więcej informacji z danych zbieranych przez masowe systemy. Komplikacje związane z Internetem Rzeczy wiążą się ze skalą tego rodzaju systemów. Budowanie samych czujników dostępnych z poziomu inteligentnego urządzenia jest łatwe, ale tworzenie urządzeń niezawodnych, zdalnie sterowanych i aktualizowanych przez sieć, a jednocześnie bezpiecznych i opłacalnych dla producenta okazuje się znacznie bardziej skomplikowane. Tutaj w sukurs przychodzi wiele rozwiązań korzystających z systemów sztucznej inteligencji.

Rashmi Misra z Microsoftu przedstawił niedawno w jednym z podcastów, w jaki sposób AI i IoT łączą się, aby zapewnić lepszą widoczność i kontrolę nad szeroką gamą urządzeń i czujników podłączonych do Internetu. W Microsoft Rashmi kieruje zespołem, który tworzy rozwiązania IoT i sztucznej inteligencji. IoT pomaga przekształcać modele biznesowe, pozwalając firmom przejść od prostego wytwarzania produktów i usług do zapewniania klientom pożądanych rezultatów i całych ekosystemów. Firmy mogą teraz gromadzić i przekształcać dane w użyteczne i cenne informacje dzięki IoT współpracującemu z systemami sztucznej inteligencji.

Połączenie Internetu Rzeczy i sztucznej inteligencji powoduje wielkie zmiany w branży. Niezależnie od tego, czy dana firma korzysta z IoT i AI, aby angażować klientów, wdrażać agentów konwersacyjnych dla klientów, dostosowywać doświadczenia użytkowników, uzyskiwać natychmiastowe analizy lub optymalizować wydajność dzięki obserwacjom AI i prognozom, zastosowanie tego duetu tworzy unikalną dynamikę, która pozwala spółkom uzyskiwać wysoką jakość wglądu w każdą część zbieranych danych, od np. tego, na co faktycznie zwracają uwagę klienci, po to, jak pracownicy, dostawcy i partnerzy wchodzą w interakcje z różnymi elementami ekosystemu. Zamiast po prostu modelować procesy biznesowe w oprogramowaniu w sposób zbliżony do realnego świata, urządzenia IoT zapewniają systemom rzeczywisty interfejs. W dowolnym miejscu, w którym można umieścić czujnik lub urządzenie do pomiaru, interakcji lub analizy czegoś, można teraz umieścić urządzenie IoT podłączone do chmury z obsługą AI.

Przyszłość wykorzystania systemów AGI

Ankieta przeprowadzona wśród czterech grup ekspertów w latach 2012-13 przez badaczy AI Vincenta C. Müllera i Nicka Bostroma wykazała, że szanse na to, że systemy ogólnej sztucznej inteligencji powstaną pomiędzy 2040 a 2050 rokiem, wynosi około 50%, a do 2075 roku już nawet 90%. Około 30 lat po stworzeniu pierwszych systemów AGI powstać ma tak zwana „superinteligencja”, którą Bostrom definiuje jako „każdy intelekt, który znacznie przewyższa zdolności poznawcze ludzi w praktycznie wszystkich dziedzinach”.

Niektórzy eksperci AI uważają, że takie prognozy są szalenie optymistyczne, biorąc pod uwagę nasze ograniczone zrozumienie ludzkiego mózgu i uważają, że AGI jest jeszcze stulecia przed nami. Niezależnie jednak od tego, jak jest w rzeczywistości, zanim stworzymy tego rodzaju system, konieczne jest zastanowienie się nad jego bezpieczeństwem. Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates i wiele innych wielkich nazwisk w nauce i technologii wyraża swoje zaniepokojenie zagrożeniami związanymi z systemami AI w mediach i listach otwartych. Do tego grona dołącza także wielu wiodących badaczy tej dziedziny. Temat powraca za każdym razem, kiedy mówi się o szansie na stworzenie AGI.

Pomysł, że próby stworzenia silnej sztucznej inteligencji powiodą się jeszcze w tym wieku, od dawna uważany był za science fiction. Jednak dzięki ostatnim przełomowym odkryciom ​​wielu ekspertów poważnie traktuje możliwość stworzenia superinteligencji jeszcze za naszego życia. Podczas gdy niektórzy eksperci wciąż sądzą, że sztuczna inteligencja na poziomie ludzkim znajduje się stulecia od nas, większość badań nad AI prezentowanych na konferencji w Portoryko w 2015 roku wskazywało, że ​​jej wynalezienie nastąpi przed 2060 rokiem. Ponieważ ukończenie wymaganych do tego celu badań nad bezpieczeństwem może potrwać dekady, rozsądnie jest rozpocząć je teraz.

Ponieważ sztuczna inteligencja może przewyższyć inteligencją człowieka, nie mamy – póki co – narzędzi pozwalających przewidzieć jej zachowanie. Nie możemy wykorzystywać dotychczasowych osiągnięć technologicznych jako podstaw do analizy jej zachowania, ponieważ nigdy nie stworzyliśmy niczego, co mogłoby, świadomie lub nieświadomie, nas przechytrzyć. Najlepszym przykładem tego, z czym moglibyśmy się zmierzyć, może być nasza ewolucja. Ludzie kontrolują planetę nie dlatego, że są najwięksi, najsilniejsi czy najszybsi, ale dlatego, że są najmądrzejsi. Jeśli nie będziemy już najmądrzejsi, czy jesteśmy pewni, że nie stracimy kontroli nad światem?

Tymi zagadnieniami zajmuje się np. Instytut Przyszłości Życia (Future of Life Institute – FLI). Stanowisko FLI jest takie, że nasza cywilizacja będzie się rozwijać, jeśli znajdziemy równowagę między rosnącą potęgą technologii a mądrością, z jaką nią zarządzamy. W przypadku technologii AI FLI uważa, że ​​najlepszym sposobem na to nie jest hamowanie rozwoju technologii sztucznej inteligencji, ale przyspieszenie badań nad bezpieczeństwem AI.

Większość badaczy zgadza się, że sztuczna inteligencja nie przejawia ludzkich emocji, takich jak miłość czy nienawiść, w związku z czym nie ma powodu obawiać się, że stanie się ona życzliwa lub wroga człowiekowi. FLI przewiduje dwa negatywne dla ludzkości scenariusze po stworzeniu superinteligentnej AGI:

Sztuczna inteligencja jest zaprogramowana do robienia czegoś niszczycielskiego : broń autonomiczna to systemy sztucznej inteligencji zaprogramowane do zabijania. W rękach niewłaściwej osoby broń ta może łatwo spowodować ogromne zniszczenia. Wyścig zbrojeń może nieumyślnie doprowadzić do wojny sztucznych inteligencji, która spowoduje masowe straty po obu stronach konfliktu. Aby uniknąć zniszczenia przez wroga, broń ta byłaby niezwykle trudna do zwykłego wyłączenia. Ryzyko takie występuje nawet przy wąskiej AI, ale rośnie wraz ze wzrostem poziomu inteligencji AI i jej autonomii.

: broń autonomiczna to systemy sztucznej inteligencji zaprogramowane do zabijania. W rękach niewłaściwej osoby broń ta może łatwo spowodować ogromne zniszczenia. Wyścig zbrojeń może nieumyślnie doprowadzić do wojny sztucznych inteligencji, która spowoduje masowe straty po obu stronach konfliktu. Aby uniknąć zniszczenia przez wroga, broń ta byłaby niezwykle trudna do zwykłego wyłączenia. Ryzyko takie występuje nawet przy wąskiej AI, ale rośnie wraz ze wzrostem poziomu inteligencji AI i jej autonomii. Sztuczna inteligencja jest zaprogramowana do robienia czegoś pożytecznego, ale rozwija destrukcyjną metodę osiągnięcia swojego celu: może się to zdarzyć, gdy nie uda nam się w pełni dopasować celów systemu AI do naszych (co jest w ogólności dosyć trudne, szczególnie przy bardziej złożonych zagadnieniach). Jeśli poprosisz autonomiczny samochód, aby zawiózł cię na lotnisko tak szybko, jak to możliwe, możesz dotrzeć tam ścigany przez policję lub nieprzytomny od przeciążeń, System nie zrobi tego, co chciałeś, ale dosłownie to, o co go poprosiłeś. Jeśli superinteligentnemu systemowi zostanie powierzone ambitne przedsięwzięcie geoinżynierii, może siać spustoszenie w naszym ekosystemie jako efekt uboczny i postrzegać ludzkie próby powstrzymania go jako zagrożenia, które należy powstrzymać.

Jak pokazują te dwa przykłady, obawą przed zaawansowaną sztuczną inteligencją nie jest jej wrogość, ale kompetencja. Ogólna sztuczna inteligencja będzie wyjątkowo dobra w osiąganiu swoich celów, a jeśli te cele nie będą zgodne z naszymi, mamy problem.

Wpływ systemów uczenia maszynowego na nasze życie

Eksperci twierdzą, że rozwój sztucznej inteligencji poprawi sytuację większości ludzi w ciągu następnej dekady, ale wielu ma obawy, jak postępy w AI wpłyną na to, co to znaczy być człowiekiem, być produktywnym i korzystać z wolnej woli. Cyfrowe życie zwiększa ludzkie możliwości, ale też zmienia sposób naszego działania. Czy w miarę rozprzestrzeniania się sztucznej inteligencji opartej na algorytmach (AI) ludzie będą mieli się lepiej niż obecnie?

Wiele osób przewiduje, że sztuczna inteligencja połączona w sieć zwiększy ludzką skuteczność, ale zagrozi również naszej autonomii. Mówi się o nowych możliwościach, o tym, że komputery mogą przekraczać ludzką inteligencję i możliwości w takich zadaniach, jak złożone podejmowanie decyzji, wnioskowanie i uczenie się, zaawansowane analizy i rozpoznawanie wzorców, ostrość widzenia, rozpoznawanie mowy i tłumaczenie języka. Tak zwane „inteligentne” systemy mają pojawiać się na wielu polach eksploatacji – w społecznościach, pojazdach, budynkach i obiektach użyteczności publicznej, w gospodarstwach rolnych i w procesach biznesowych. Ich zaangażowanie pozwolić zaoszczędzić czas, pieniądze i potencjalnie uratować wiele ludzkich żyć.

Specjaliści z branży mają wiele optymizmu, skupia się on obecnie mocno między innymi na opiece zdrowotnej i wielu możliwych zastosowaniach systemów sztucznej inteligencji w diagnozowaniu i leczeniu pacjentów oraz wspomaganiu osób starszych w pełniejszym i zdrowszym życiu. Podobnie zastosowania AI w epidemiologii mają pozwolić diametralnie zmienić jakość naszego życia. Tutaj oprócz samych systemów sztucznej inteligencji stosowanych jest wiele rozwiązań do operowania na ogromnych zbiorach danych zwanych BigData.

Z drugiej strony większość ekspertów, niezależnie od tego, czy w kwestii AI są optymistami, czy też nie, wyraża obawy dotyczące długoterminowego wpływu nowych narzędzi na zasadnicze elementy bycia człowiekiem. Większość ekspertów zajmujących się badaniem i prognozowaniem rozwoju systemów sztucznej inteligencji nie chce jednoznacznie określać, czy coraz szersza implementacja systemów AI sprawi, że ludziom będzie się żyło lepiej czy gorzej. Większość ekspertów podziela wspólne obawy dotyczące możliwego wykorzystania tych systemów, które pogorszyłoby życie ludzkości, ale jednocześnie wskazuje jasne ścieżki, które miałyby temu zaradzić, co może sugerować, że to, jaki impakt będzie miało AI na ludzkość, zależy w zasadzie od nas samych.

Cywilizacyjny impakt AI

Pew Research Center wraz z Elon University z Karoliny Północnej w USA zorganizowały spotkanie panelowe poświęcone perspektywom zwiększonego uzależnienia naszego społeczeństwa od systemów sztucznej inteligencji. Omawiano perspektywę rozwoju do około 2030 roku. Przewiduje się, że do tego czasu będziemy jeszcze bardziej zależni od AI w złożonych systemach cyfrowych. Niektórzy specjaliści twierdzą, że będziemy kontynuować zwiększanie zależności naszego życia od przetwarzania informacji przez systemy komputerowe.

Specjalistom zadano jedno, zasadnicze pytanie: “Jak sądzisz, czy do 2030 roku prawdopodobne jest, że rozwój sztucznej inteligencji i powiązanych z nią systemów technologicznych zwiększy ludzkie możliwości i wzmocni je? Czy przez większość czasu większość ludzi będzie w lepszej sytuacji niż obecnie? A może najbardziej prawdopodobne jest to, że rozwój sztucznej inteligencji i zredukuje ludzką autonomię i sprawność w takim stopniu, że większość ludzi nie będzie w lepszej sytuacji niż obecnie?”. Ogólnie rzecz biorąc, pomimo obaw odpowiadających ekspertów, aż 63% z nich stwierdziło, że mają nadzieję, że większość osób będzie w lepszej sytuacji w 2030 r., niż jest teraz. Pozostałe 37% stwierdziło, że systemy AI nie polepszą naszego życia.

Wielu specjalistów, którzy wzięli udział w dyskusji panelowej, uważa, że rosnące uzależnienie ludzi od systemów technologicznych nie będzie dla nas ciężarem, jeśli zwróci się szczególną uwagę na to, jak te nowe narzędzia, platformy i sieci są projektowane, dystrybuowane i aktualizowane. Sonia Katyal z Berkeley Center for Law and Technology jest członkinią Rady Departamentu Doradztwa Gospodarki Cyfrowej Stanów Zjednoczonych. Przewiduje ona, że w 2030 roku najwięcej pytań będzie dotyczyć tego, w jaki sposób postrzeganie AI i jego zastosowanie będzie miało wpływ na prawa obywatelskie w przyszłości. Pytania o prywatność, wolność słowa, prawo do zgromadzania się etc. pojawią się ponownie w nowym kontekście sztucznej inteligencji, podważając nasze najgłębsze przekonania na temat równości szans dla wszystkich. Od tego, jak szeroko przeanalizujemy dziś te pytania, zależy wpływ nowych technologii na ludzkość w przyszłości.

Erik Brynjolfsson, dyrektor MIT Initiative on the Digital Economy i autor książek poświęconych przyszłości systemów cyfrowych, skomentował z kolei: “AI i pokrewne technologie osiągnęły już nadludzką wydajność w wielu obszarach i nie ma wątpliwości, że ich możliwości poprawią się, prawdopodobnie bardzo znacząco, do 2030 roku. Myślę, że bardziej prawdopodobne jest, że użyjemy tej mocy, aby uczynić świat lepszym miejscem. Na przykład, możemy praktycznie wyeliminować globalne ubóstwo, masowo zmniejszyć choroby i zapewnić lepszą edukację prawie wszystkim na naszej planecie. Systemy sztucznej inteligencji i uczenia maszynowego mogą być jednak również wykorzystywane do coraz większego skupiania bogactwa i władzy, czy do tworzenia jeszcze bardziej przerażającej broni”. Jak wskazuje Brynjolfsson, “żaden wynik nie jest niemożliwy”. Według niego nie powinniśmy pytać, “co się stanie?”, ale “co zdecydujemy się zrobić?”. W tym zakresie konieczna jest współpraca naukowców, biznesmenów i prawodawców, a także konsumentów i odbiorców technologii.

Podobnego zdania jest Bryan Johnson, założyciel i dyrektor generalny Kernel, wiodącego dewelopera zaawansowanych interfejsów sieci neuronowych oraz funduszu venture capital OS Fund. Powiedział on: “zdecydowanie wierzę, że odpowiedź zależy od tego, czy możemy przesunąć naszą gospodarkę w kierunku priorytetowego traktowania poprawy jakości życia człowieka”. Marina Gorbis, dyrektor wykonawczy Institute for the Future, wskazuje na podobne problemy. “Bez znaczących zmian w naszej polityce ekonomicznej i systemach zarządzania danymi systemy sztucznej inteligencji mogą stworzyć większe nierówności ekonomiczne (…). Za każdym razem, gdy programujemy nasze środowiska, kończymy programowanie siebie i naszych interakcji. Ludzie, by współpracować z AI, muszą stać się bardziej znormalizowani, usuwając przypadkowość i niejednoznaczność z interakcji. A ta dwuznaczność i złożoność jest istotą bycia człowiekiem”.

Sztuczna inteligencja zrobi piękne zdjęcie i… uratuje ci życie

Trudno dziś znaleźć obszary, w których rozwiązania oparte o algorytmy sztucznej inteligencji nie ułatwiałyby życia. Algorytmy te pozwalają skuteczniej zarządzać miastami, wyręczają ludzi w zaawansowanych obliczeniach i wspomagają medyczną diagnostykę. A dzięki rozwiązaniom zastosowanym choćby przez Huawei – zapewnią, że każde zdjęcie wykonane smartfonem będzie po prostu idealne.

„Huawei Rozmowy o Przyszłości” to konferencja organizowana przez największego producenta smartfonów na świecie, w tym roku odbyła się po raz drugi. Zaproszeni eksperci zastanawiali się, w jaki sposób AI zmieni nasze życie. Jeden z głównych wniosków dotyczył edukacji. Prof. Dariusz Jemielniak z Akademii Leona Koźmińskiego zwracał uwagę, że z związku z rewolucją, której doświadczamy dzięki AI znaczna część programów nauczania się dezaktualizuje.

– Dzieciaki dziś niektórych rzeczy po prostu nie muszą się uczyć, szkoda na to czasu, skoro maszyna zrobi to za nich lepiej – mówił. Izabela Rudak z agencji badawczej Maison&Partners dodawała, że szkoła powinna uczyć młodych ludzi nadążać za zmianami społecznymi, a nie utrwalać status quo.

W podobnym tonie, ale w odniesieniu do rządów wypowiadała się Sally Eaves z Emergent Technology. – Zmiany technologiczne to nie tylko kwestia wielkich korporacji, ale przede wszystkim państw narodowych. Rządy muszą być gotowe na nowe rozwiązania i starać się je wyprzedzać, a nie wyłącznie gonić – podkreślała w swoim wystąpieniu.

Eksperci związani z medycyną debatowali o zastosowaniach AI w diagnostyce i opiece nad pacjentami. Byli zgodni, że możliwości nowych technologii pozwolą wielokrotnie zwiększyć skuteczność diagnostyki, wykrywać choroby i ratować życie, ale na razie stoi im na drodze jedna kolosalna przeszkoda. – Żeby algorytm diagnostyczny był skuteczny, trzeba mu zapewnić ogromne ilości danych porównawczych. Dzisiaj takie bazy danych są bardzo trudno dostępne i bardzo drogie – mówił prof. Zbigniew Nawrat z Uniwersytetu Medycznego w Katowicach. – Istnieje ogromna potrzeba stworzenia zunifikowanej bazy wyników badań, które będą zrozumiałe dla algorytmów, a to wymaga zmian systemowych, nie da się tego zrobić ad hoc – wtórował mu dr Sławomir Chomik z Medical Research Center.

Zaprezentowano także dwa już działające zastosowania AI, oparte o dedykowany chip zamontowany w smartfonach Huawei. Wielokrotnie nagradzany fotograf Tomasz Lazar zaprezentował zdjęcia, które podczas podróży zrobił swoim Huawei Mate 20 Pro. – Współpracy z fotograficznymi algorytmami sztucznej inteligencji musiałem się nauczyć. Teraz jest to dla mnie takie samo narzędzie, jak mój „duży” aparat – podkreślał.

Szymon Pepliński z Saatchi & Saatchi zaprezentował natomiast aplikację Facing Emotions, która dzięki autorskiemu rozwiązaniu Huawei pozwala na rozpoznawanie emocji rozmówcy. To rozwiązanie dedykowane osobom niewidomym, którym pozwala „pełniej” uczestniczyć w sytuacjach społecznych.

Materiał powstał we współpracy z Huawei

Sztuczna inteligencja dla dobra człowieka i środowiska, czyli lista (samooceny) AI

„Sztuczna inteligencja stanie się wkrótce tym, czym jest elektryczność – będzie wszechobecna i konieczna do życia”. To cytat z książki Kai-Fu Lee „Inteligencja sztuczna. Rewolucja prawdziwa. Chiny, USA i przyszłość świata”, który pokazuje jak zmienia się nasze podejście do AI. Tak rewolucyjna zmiana z pewnością nie nastąpi w perspektywie 2-3 lat, ale 5-10 to już chyba realna perspektywa. Kontynuując wątek listy do samooceny sztucznej inteligencji opracowanej przez ekspertów Komisji (UE) przejdziemy dzisiaj do ważnego zagadnienia wpływu AI na społeczny i środowiskowy dobrostan (well-being), który ma być przecież głównym celem tworzenia innowacyjnych rozwiązań.

Wybór powyższego cytatu nie jest przypadkowy. Jeżeli przyjrzymy się wytycznym w sprawie Trustworthy AIto dojdziemy do wniosku, że sztuczna inteligencja ma przyczyniać się do poprawy naszego statusu (szerokie rozumienie) przy jednoczesnym poszanowaniu i uwzględnieniu pozytywnego wpływu na środowisko. Innymi słowy, wszystkie te rozwiązania, które są oparte o AI czy machine learning powinny być tak konstruowane, aby te aspekty uwzględniać.

Nieco enigmatyczne prawda? Eksperci Komisji (UE) wskazują tutaj, że o ile AI może przynieść wiele dobrego, to niesie ze sobą także liczne zagrożenia, jak nadmierne zaufanie względem algorytmów, pogorszenie stosunków społecznych wynikające z automatyzacji czy nawet negatywne skutki dla naszej psychiki. A to są już zagrożenia, których nie możemy pominąć. No i jest jeszcze ekologia, o czym za chwilę.

Wiele aspektów

Ten punkt z listy ekspertów Komisji (UE) jest nieco filozoficzny i chyba trudno-mierzalny. Autorzy zwracają uwagę na fakt, że AI powinno uwzględniać takie aspekty jak wspieranie demokratycznych procesów, pluralizm czy wyznawane wartości. Jest to na tyle szeroka kategoria, że można do niej „wrzucić” praktycznie wszystko.

Nie są to jednak wcale nierealne sytuacje, gdzie AI może sporo (negatywnie) namieszać. Jeżeli podejmowanie decyzji politycznych czy gospodarczych, a także społecznych przez organy państwowe opiera się w jakimś stopniu (lub całkowicie) na danych opracowanych i „wyplutych” przez algorytm, to zawsze istnieje ryzyko, że gdzieś „po drodze” pojawiła się manipulacja (fake newsy, różne komunikaty w zależności od grupy docelowej), dyskryminacja czy po prostu błąd ludzki (programisty).

Dlatego musimy zawsze zadawać sobie pytanie czy nasz system AI może mieć negatywny wpływ na demokrację (procesy demokratyczne). Oczywiście trudno mówić o tym w sytuacji, gdy stosujemy rozwiązania np. do oceny zdolności kredytowej, aczkolwiek i w takim przypadku teoretycznie może się to zdarzyć. Ale w powyższej sytuacji możemy już z kolei rozpatrywać ewentualny negatywny wpływ na społeczeństwo czy konkretną grupę np. ze względu na dyskryminację, o której już wielokrotnie pisałem.

Pytanie jakie mi się tutaj nasuwa to sposób w jaki można tym zarządzać. Po pierwsze dobre “data governance”, czyli rozsądne i efektywne zarządzanie danymi wejściowymi i wyjściowymi (o tym powiemy sobie w kolejnym artykule), przemyślane opracowywanie czynników „decyzyjnych” branych pod rozwagę i dobra kontrola na etapie uczenia się algorytmu oraz monitoring na etapie użytkowania. Eksperci rekomendują tutaj wprowadzenie odpowiednich rozwiązań, choć niestety nie wskazują jakich 

Wpływ na pracę i umiejętności

Szalenie istotny wątek. Chyba wszyscy zastanawiamy się jak sztuczna inteligencja wpłynie na nas i naszą przydatność zawodową. Choć wiemy już, że Trustworthy AI ma być dla nas, a nie my dla niej, to jednak nie można wykluczyć, że w dobie automatyzacji niektóre zawody staną się mniej potrzebne lub w ogóle znikną.

To co powinniśmy wziąć pod uwagę, również jako wdrażający system AI w ramach naszej organizacji, to jak to wpłynie na naszych (współ)pracowników, np. zmniejszając ich zaangażowanie w określone projekty czy zmieniając role. To także bardzo ważna kwestia szkolenia i przygotowania pracowników do „przyjęcia” AI. Może to oznaczać także konieczność rozmowy z organizacjami związkowymi etc. na temat tego jak automatyzacja może przyczynić się do dystrybucji zadań w organizacji. To z pewnością nie zawsze będzie łatwa i prosta rozmowa.

Ważne będzie też wprowadzenie takich środków, które umożliwią pracownikom pozyskanie wiedzy i umiejętności koniecznych do obsługi tych systemów. Z jednej strony AI może przyczynić się do zwiększania kompetencji cyfrowych, a z drugiej może obudzić w nas „leniucha” i spowodować tzw. de-skilling, a na to również powinniśmy być przygotowani.

Środowisko „na topie”

Temat ochrony środowiska stał się ostatnio bardzo ważny (i niestety „modny” w negatywnym znaczeniu). Pojawia się on również w kontekście systemów wykorzystujących sztuczną inteligencję (warto zwrócić uwagę na Strategię Zrównoważonego Rozwoju Komisji). A o co chodzi?

Chodzi o to, że niezależnie od tego jak AI wspierać może środowisko, systemy muszą pracować w oparciu o rozwiązania najbardziej „environmentally friendly”. Już na etapie tworzenia rozwiązań powinniśmy brać pod uwagę, ile energii na to będziemy potrzebować (infrastruktura on-site versus chmura) i czy da się zmniejszyć ślad węglowy. Eksperci rekomendują przeprowadzenie analizy potencjalnego negatywnego wpływu na środowisko i opracowanie mechanizmu jego zapobiegania. Może być ciężko, bo eksperci wskazują nawet ocenę na etapie uczenia się algorytmu…

I na dzisiaj to wszystko. W kolejnej edycji, prawdopodobnie, długo wyczekiwane privacy i data governance.

LEAVE A REPLY