Sztuczna Inteligencja. Jaki wpływ mają na nią stereotypy?

Czy sztuczna inteligencja może pomóc nam znaleźć nową pracę?

Szansa czy zagrożenie? Sztuczna inteligencja ma coraz większy wpływ na nasze życie, dlatego budzi pewien niepokój. Postępująca automatyzacja produkcji oraz innych gałęzi gospodarki sprawia, że pracownicy obawiają się, że roboty odbiorą im pracę. Okazuje się jednak, że AI może być pomocna w poszukiwaniu zatrudnienia - poprzez wynajdywanie dla nas spersonalizowanych ofert czy dostarczanie potrzebnych informacji.

Sztuczna inteligencja a rynek pracy

Postęp techniczny jest widoczny np. w przedsiębiorstwach produkcyjnych lub logistycznych, gdzie komputery z powodzeniem „przejmują” zadania pracowników. To sprawia, że osoby, które tracą zatrudnienie, są zmuszone do zmiany zawodu lub branży. Obecność sztucznej inteligencji wpływa jednak nie tylko na życie zawodowe operatorów maszyn. Jak zaznaczył Michał Wójcik w wykładzie wygłoszonym w ramach TEDx Tarnów:

Możemy sobie nie zdawać z tego sprawy, ale ta sztuczna inteligencja jest już wśród nas i korzystamy z niej na co dzień. Każdy na pewno nieraz irytował się, gdy autokorekta pomyliła mu jedno słowo w jego wypowiedzi. Właśnie ta autokorekta jest już pewną cząstką sztucznej inteligencji, ponieważ program musi przeanalizować znaki, które użytkownik wpisuje, a następnie porównywać je z wyrazami w słowniku i zobaczyć, które najbardziej pasują w danym kontekście.

Prelegent wyjaśnił, że AI (artificial intelligence) „poznaje” użytkownika programu komputerowego czy aplikacji, analizując jego działania. Dzięki zgromadzeniu podstawowej wiedzy może wychodzić naprzeciw jego oczekiwaniom:

Standardowe programy mają jakby jedno ustalone wyjście i na przykład, jak chcemy posortować ciąg liczb, no to jest tylko jedna poprawna odpowiedź. Sztuczna inteligencja zajmuje się problemami, które nie mają jednoznacznej, prawidłowej odpowiedzi, tak jak np. podpowiadanie kolejnych wyrazów na klawiaturze.

Sztuczną inteligencję warto traktować nie jak zagrożenie, ale jak użyteczne narzędzie, które sprawia, że nie musimy samodzielnie wykonywać wielu żmudnych zadań, dzięki czemu oszczędzamy czas i energię.

Czy sztuczna inteligencja zabierze Ci pracę?

Radzimił – wierny towarzysz poszukiwań

Chatbot, narzędzie rekrutacyjne działające w oparciu o sztuczną inteligencję, jest pomocne w rekrutacji - tak dla rekruterów, jak i dla kandydatów. Osoby, które wyszukują specjalistów posiadających odpowiednie kompetencje, mogą sprawnie docierać do tych, którzy najlepiej wpisują się w profil kandydata. Pracownicy otrzymują do dyspozycji narzędzie dostępne 24 godziny na dobę i 7 dni w tygodniu. Chatbot Radzimił, pomocnik użytkowników serwisu Pracuj.pl, nie tylko proponuje spersonalizowane ogłoszenia, ale również radzi, gdzie znaleźć odpowiedzi na pytania i pomaga w rozwiązywaniu trudności, z jakimi mogą się zmagać osoby poszukujące pracy.

Oferty wyszukiwane z myślą o Tobie

Dzięki informacjom i sztucznej inteligencji możesz pełniej korzystać ze stron, takich jak np. Pracuj.pl. Jeśli zalogujesz się w serwisie, będziesz korzystać ze spersonalizowanej strony głównej, na której wyświetlą się oferty dopasowane do Twoich potrzeb. To sprawi, że praca marzeń nie przejdzie Ci koło nosa.

Odpowiadanie na przypadkowe ogłoszenia często nie przynosi pożądanych rezultatów. Ważne, żebyś był właściwym kandydatem na wolne stanowisko, tzn. posiadał odpowiednie kwalifikacje, umiejętności i predyspozycje. Istotne jest także to, by firma, w której zamierzasz pracować, spełniała Twoje oczekiwania dotyczące np. ścieżki kariery, możliwości rozwoju, zarobków itd.

Jak pokazać już w CV, że idealnie pasujesz do stanowiska?

Narzędzia tworzone przy użyciu sztucznej inteligencji, takie jak np. Chatbot Radzimił, mogą skrócić czas przeznaczony na poszukiwanie pracy. Warto jednak nie tylko sięgać po nowinki technologiczne, ale też podnosić kwalifikacje i rozwijać umiejętności zawodowe.

Sprawdź podcast: Rynek kandydata i nowe technologie w HR – Kasia Gandor i Paweł Moszyński

Sztuczna inteligencja wpływa na nasze życie – na tyle, na ile jej pozwolimy

Dzisiaj niemożliwe stało się faktem. Technologia dogania nas w zakresie analizy obrazu, komunikacji językowej, a nawet… tworzenia sztuki, czy wirtualnej rzeczywistości.

Mając zdjęcie osoby można z tego jednego zdjęcia stworzyć wideo, a dysponując dodatkowo zapisem jej głosu, fachowiec jest w stanie zbudować syntezator mowy i sprawić, że powie własnym głosem rzeczy, których nigdy nie powiedziała – mówi dyrektor Biura Rozwoju Sztucznej Inteligencji w PKO BP Kamil Konikiewicz.

Tegoroczna pandemia Covid-19 znacząco przyspieszyła proces cyfryzacji. Inteligentne rozwiązania w postaci „uczących się” algorytmów stosowanych w programach komputerowych czy w aplikacjach na smartfony stały się powszechne. Wprowadzamy AI (ang: Artificial Intelligence) do naszego życia korzystając z serwisów społecznościowych, platform streamingowych, instalując różne urządzenia i wyrażając zgodę na przetwarzanie danych nas dotyczących.

Jak wyjaśnia Kamil Konikiewicz, nie istnieje dotąd w pełni autonomiczna AI, co oznacza, że algorytmy nie są w stanie uczyć się bez nadzoru człowieka. Ktoś musi im wskazać, że na tym konkretnym zdjęciu znajduje się pies, albo że rozmowa dotyczy koronawirusa. Dane muszą być w odpowiedni sposób przygotowywane, kategoryzowane i opisywane. Dopiero po dostarczeniu odpowiednio dużej ich próby algorytm zaczyna się uczyć.

Umiejętności, które nabywają algorytmy w zakresie punktowych zastosowań są niesamowite. Potrafią już np. lepiej niż ludzie opisywać to co widzą na zadanym obrazie, a nawet tworzyć sztukę – „malując” obrazy lub komponując utwory muzyki klasycznej. Są też świetne w gry – dzisiaj ucząc ich np. gry w szachy sadzamy naprzeciw siebie dwa algorytmy, wczytujemy im zasady gry, one zaczynają ze sobą grać i w ciągu kilku godzin za pomocą tzw. uczenia wzmacnianego osiągają poziom arcymistrzowski – wyjaśnia Kamil Konikiewicz.

Dyrektor Biura Rozwoju Sztucznej Inteligencji w PKO BP Kamil Konikiewicz jest współtwórcą asystenta głosowego w bankowej mobilnej aplikacji IKO. Asystent wykorzystuje zaawansowaną analitykę i algorytmy sztucznej inteligencji, aby umożliwić użytkownikom załatwianie spraw bankowych przy pomocy komend głosowych, np. przelewu, doładowania telefonu, wyszukiwania transakcji w historii konta, podania kodu BLIK.

System rozumie język naturalny i nie narzuca sposobu komunikacji. Można komunikować się z nim w zupełnie nieskrępowany sposób. Do jego uczenia użyto już ponad 100 tys. zwrotów, również kolokwialnych. Sprawdzenie stanu konta można zlecić na ponad 2 tys. sposobów, a przelew zrobić, mówiąc na przykład: „pchnij stówkę do Janka”. Co ważne, lista zwrotów które zrozumie algorytm jest znacznie większa, można rozmawiać z nim w sposób zupełnie naturalny.

Aplikacje bankowe działają jednak w bardzo surowym reżimie prawa polskiego i europejskiego nakładającego wymagania, co do zabezpieczenia transakcji . Każde logowanie i istotna transakcja muszą być potwierdzone mocną metodą autoryzacyjną – wpisaniem PIN-u czy podaniem kodu autoryzacyjnego. Przewidziana jest również możliwość ustawienia funkcji odcisku palca lub rozpoznawania twarzy.

Przenieśliśmy sporo życia do sieci, a w ślad za nami ruszyli tam cyberprzestępcy – zwraca uwagę Kamil Konikiewicz. Jako duży bank jesteśmy narażeni – my i nasi klienci – na różnego rodzaju ataki czy zagrożenia, natomiast stopień naszych zabezpieczeń jest bardzo wysoki – nie tylko na poziomie aplikacji i systemów, ale również na poziomie zabezpieczeń konta e-mail czy służbowego telefonu. Mamy też bardzo prężnie funkcjonujące działy bezpieczeństwa i cyberbezpieczeństwa – zapewnia.

Jak zaznacza dyrektor Biura Rozwoju AI w PKO BP, sztuczna inteligencja ingeruje w nasze życie na tyle, na ile jej pozwolimy. „Ludzie potrafią w rozmowie z wirtualnymi asystentami zdradzać informacje, których nie powinni, nawet dane wrażliwe. Projektanci tego typu rozwiązań powinni te dane chronić, czasem nawet „ustami” bota powstrzymać przed ich ujawnianiem, kiedy nie jest to wymagane – podkreśla Kamil Konikiewicz. Jego zdaniem, świat wirtualny niesie ogromne szanse, ale też pewne zagrożenia. Popularyzacja mediów społecznościowych oraz smartfonów (także cyfrowych smart-zegarków czy opasek) powoduje, że gromadzą one coraz więcej danych o użytkownikach i ich otoczeniu. Fałszywe informacje, materiały dźwiękowe i wizualne to gigantycznie wyzwania, na które nie jesteśmy jeszcze cywilizacyjnie gotowi” – zaznacza.

Ogromnym wyzwaniem stojącym przed instytucjami regulującymi zagadnienia sztucznej inteligencji jest wykładniczy rozwój tej dziedziny – tzn. liczba zastosowań jest tak gigantyczna, że stworzenie uniwersalnego prawa, regulującego wszystkie możliwe warianty zastosowań AI, jest skrajnie trudne. Dla twórców programów i aplikacji wyzwanie stanowi dostępność danych (w przypadku asystenta głosowego konkretnych rozwiązań dla języka polskiego) oraz regulacje dotyczące prywatności.

Najtrudniej jest regulować i nadzorować wielkie organizacje globalne, jak GAFA (Google, Amazon, Facebook, Apple), więc przymyka się oko na przypadki działania w „szarej strefie”. Jeżeli np. w popularnym komunikatorze internetowym pojawiają się reklamy w kontekście tego, co powiedziałem lub zobaczyłem w trakcie wideo-rozmowy z moim znajomym – to coś jest nie w porządku, bo nie przypominam sobie, żebym zezwalał na analizowanie strumienia wideo albo strumienia dźwięku z prywatnych rozmów – zauważa szef Biura Rozwoju AI w PKO BP.

Największe mocarstwa światowe inwestują grube miliardy dolarów w rozwój AI. Kto zawojuje ten rynek – zawojuje mocniejszą pozycję geopolityczną w przyszłości. Mamy mnóstwo inteligentnych, zdolnych ludzi znających się na tej technologii i dobrze byłoby zrobić z tego użytek – zbudować centra rozwojowe, centra edukacyjne i użyć potencjału intelektualnego, żeby przygotować społeczeństwo na odpowiedzialne wykorzystanie takiej technologii – wskazuje Kamil Konikiewicz.

W opinii eksperta, byłoby pożyteczne, żeby technologia związana ze sztuczną inteligencją rozwinęła się przede wszystkim w sektorze publicznym – w szczególności we wsparciu diagnostyki w ochronie zdrowia, bezpieczeństwie, cyberbezpieczeństwie, w rozwiązywaniu problemów społecznych takich jak przemoc domowa, bezrobocie, a także przy monitorowaniu ochrony środowiska. Rozwój technologii to również zapotrzebowanie na wysokiej klasy specjalistów: Data Scientists, Inżynierów AI, programistów, projektantów UX, a w przypadku asystentów głosowych, również lingwistów.

Według Kamila Konikiewicza, potrzebne są inicjatywy, które spowodują, że tzw. „przeciętny obywatel” będzie wiedział więcej na temat AI. W Polsce są wprawdzie nieśmiałe próby wprowadzania programów edukacyjnych i inwestycyjnych czy działania fundacji pro publico bono, które mają na celu kształcenie obywateli. Jednak zbliżenie sektora naukowego i biznesowego, jeżeli chodzi o polski rynek, na razie jest jeszcze na zbyt wczesnym etapie w stosunku do rozwoju i popularyzacji tej technologii.

Kamil Konikiewicz wskazuje również na potrzebę wprowadzenia już na poziomie szkoły podstawowej przedmiotu „media cyfrowe”, podczas którego dzieci i młodzież zdobywałyby wiedzę o możliwościach nowoczesnych technologii, ale i o niebezpieczeństwach związanych z ich niewłaściwym stosowaniem. Materiału wystarczyłoby na kilka lat nauczania – podkreśla ekspert PKO Banku Polskiego.

Poprzez: PAP MediaRoom

Sztuczna Inteligencja. Jaki wpływ mają na nią stereotypy?

Olga Kozierowska: Jak myślicie, sztuczna inteligencja niesie ze sobą więcej ryzyk czy więcej możliwości?

Magdalena Kasiewicz: Powiedziałabym, że i to i to – mamy przed sobą ogromne możliwości, ale też stoimy przed wielkimi ryzykami, które dotyczą wielu warstw, i z którymi musimy sobie poradzić. Zaczyna się od zrozumienia problemu i naświetlenia go, np. takich właśnie debat, ale potrzebne są też regulacje, wsparcie instytucji i edukacja osób zaangażowanych w budowanie algorytmów AI. A ta grupa jest tak ogromna, że edukacja musi być szeroka. Dodatkowo potrzebne są narzędzia, które wyłapują uprzedzenia algorytmów. Nie możemy jednak pójść w stronę, w której przerażenie i obawa przed ryzykiem zatrzymają rozwój. AI jest nam potrzebna z wielu przyczyn, m.in. ekologicznych, bez jej rozwoju sobie nie poradzimy. Patrzmy więc w przyszłość optymistycznie, jednocześnie wiedząc, jak bardzo istotne są edukacja i zrozumienie problemów.

Olga Kozierowska: Na tych, którzy tworzą algorytmy AI, spoczywa wielka odpowiedzialność. Na pewno wiele osób, myśląc o sztucznej inteligencji, widzi obraz z filmów science fiction, jak roboty przejmują nasze życie. Jeśli te roboty będą dobrze nauczane, to mniej będziemy się ich obawiać. Ale jeśli będą nauczone źle i rzeczywiście będą powielać dzisiejsze błędy myślenia i stereotypy? Co wtedy?

Żaneta Łucka-Tomczyk: Bardzo dobrze, że o tym mówimy. Popkultura buduje obraz, który sprawia, że boimy się sztucznej inteligencji, jest np. Skynet z „Terminatora”, który próbuje przejąć władzę nad światem. Często do tego właśnie sprowadzamy AI, ale, jak powiedziałaś, mamy dużo bardziej przyziemne problemy, czyli wykluczenia. Co można z tym zrobić? Unia Europejska kusi się tutaj o AI Act, który pojawił się w kwietniu, gdzie są zdefiniowane różne ryzyka dotyczące sztucznej inteligencji, m.in. takie, które w ogóle wykluczają jej stosowanie, np.social scoring, który jest w Chinach, gdzie w zależności od tego, jak system nas oceni, zależy czy wsiądziemy do pociągu albo do samolotu. Są też systemy wysokiego ryzyka, w których ze względu na sztuczną inteligencję nie mogą być realizowane nasze podstawowe prawa, jak dostęp do medycyny i edukacji, czy procesy rekrutacyjne. To jest związane właśnie z uprzedzeniami algorytmów, które nie do końca wynikają z samych algorytmów. Są też mniejsze ryzyka, np. że nie zostaniemy poinformowani, że rozmawiamy z botem, a nie z prawdziwym człowiekiem. No i są też pomniejsze ryzyka, w przypadku których Unia Europejska wydaja tylko zalecenia, że sztuczna inteligencja powinna być zgodna z prawem, przestrzegać wartości etycznych, być solidna i jakościowa. Wydaje mi się, że takie wstępne regulacje pozwalają tę sztuczną inteligencję w pewien sposób okiełznać w tym zakresie, o którym mówisz.

Olga Kozierowska: Unia Europejska chce wprowadzić regulacje, ale jeśli nie wprowadzą ich USA czy Chiny, to jak to się przełoży na naszą konkurencyjność?

Agnieszka Piechocka: Myślę, że zasady, które Unia ma zamiar wprowadzić, nie godzą szczególnie w innowacyjność. Social scoring nie jest najlepszą drogą…

Olga Kozierowska: No właśnie, to, co Żaneta mówiła o Chinach, mnie przeraziło – że mogłabym nie wsiąść do samolotu, bo nie spełniam jakichś norm.

Agnieszka Piechocka: Albo nie dostaję kredytu, bo kiedyś przeszłam na czerwonym świetle.

LEAVE A REPLY