Zamknij reklame

Dziedzinie technologii zagraża wiele czynników. Użytkownicy boją się na przykład złośliwego oprogramowania lub utraty prywatności. Jednak według wpływowych osobistości z branży technologicznej nie powinniśmy martwić się tak bardzo samym czynnikiem ludzkim, a raczej jego powiązaniem ze sztuczną inteligencją. Na tegorocznym Światowym Forum Ekonomicznym w Davos kadra kierownicza wielu dużych firm technologicznych wezwała do wprowadzenia legislacyjnych regulacji branży. Jakie są powody, dla których to robią?

„Sztuczna inteligencja to jedna z najważniejszych rzeczy, nad którymi jako ludzkość pracujemy. Ma większą głębię niż ogień czy elektryczność” powiedział dyrektor generalny Alphabet Inc. w ubiegłą środę na Światowym Forum Ekonomicznym. Sundar Pichai, dodając, że regulacja sztucznej inteligencji wymaga globalnych ram przetwarzania. Do ujednolicenia zasad dotyczących wykorzystania sztucznej inteligencji wzywają także dyrektor Microsoftu Satya Nadella i dyrektor IBM Ginni Rometty. Według Nadelli dzisiaj, ponad trzydzieści lat temu, konieczne jest, aby Stany Zjednoczone, Chiny i Unia Europejska ustaliły zasady określające znaczenie sztucznej inteligencji dla naszego społeczeństwa i dla świata.

Próby ustalenia przez poszczególne firmy własnych zasad etyki w zakresie sztucznej inteligencji spotykały się w przeszłości z protestami nie tylko pracowników tych firm. Na przykład Google musiał w 2018 roku wycofać się z tajnego rządowego programu Project Maven, który wykorzystywał technologię do analizy obrazów z wojskowych dronów, po masowej reakcji. Stefan Heumann z berlińskiego think tanku Stiftung Neue Verantwortung w nawiązaniu do etycznych kontrowersji wokół sztucznej inteligencji twierdzi, że zasady powinny ustalać organizacje polityczne, a nie same firmy.

Inteligentny głośnik Google Home wykorzystuje sztuczną inteligencję

Obecna fala protestów przeciwko sztucznej inteligencji ma wyraźny powód dla takiego momentu. Już za kilka tygodni Unia Europejska będzie musiała zmienić swoje plany dotyczące odpowiedniego prawodawstwa. Mogłyby to obejmować na przykład regulacje dotyczące rozwoju sztucznej inteligencji w tzw. sektorach wysokiego ryzyka, takich jak opieka zdrowotna czy transport. Na przykład zgodnie z nowymi przepisami firmy będą musiały dokumentować w ramach przejrzystości, w jaki sposób budują swoje systemy sztucznej inteligencji.

W związku ze sztuczną inteligencją w przeszłości pojawiło się już kilka skandali – jedną z nich jest na przykład afera Cambridge Analytica. W firmie Amazon pracownicy podsłuchiwali użytkowników za pośrednictwem cyfrowej asystentki Alexy, a latem ubiegłego roku ponownie wybuchła afera w związku z tym, że firma Google – czyli platforma YouTube – zbierała dane od dzieci poniżej trzynastego roku życia bez zgody rodziców.

Choć część firm milczy na ten temat, jak wynika z wypowiedzi wiceprezes Nicoli Mendelsohn, Facebook niedawno ustanowił własne zasady, podobne do europejskiego rozporządzenia RODO. Mendelsohn stwierdził w oświadczeniu, że było to wynikiem nacisków Facebooka na wprowadzenie globalnych regulacji. Keith Enright, odpowiedzialny za prywatność w Google, powiedział na niedawnej konferencji w Brukseli, że firma szuka obecnie sposobów na zminimalizowanie ilości danych użytkowników, które należy gromadzić. „Ale powszechne jest twierdzenie, że firmy takie jak nasza starają się gromadzić jak najwięcej danych” – dodał. stwierdził dalej, dodając, że przechowywanie danych, które nie wnoszą żadnej wartości dla użytkowników, jest ryzykowne.

Organy regulacyjne w żadnym wypadku nie wydają się nie doceniać ochrony danych użytkowników. Stany Zjednoczone pracują obecnie nad ustawodawstwem federalnym na wzór RODO. Na ich podstawie firmy musiałyby uzyskać zgodę swoich klientów na udostępnienie ich danych podmiotom trzecim.

Siri FB

Źródło: Bloomberg

.