I. globalny szczyt na temat bezpieczeństwa AI
Sztuczna inteligencja „stwarza ogromne globalne możliwości”, ale należy ją rozwijać w sposób „skoncentrowany na człowieku, godny zaufania i odpowiedzialny” – czytamy w deklaracji z Bletchley, którą podczas I. globalnego szczytu o bezpieczeństwie AI (o sztucznej inteligencji) podpisali delegaci 28 państw.
.Podczas dwudniowego szczytu (1-2 listopada) w Bletchley Park, gdzie w czasie II wojny światowej mieściła się siedziba brytyjskiego wywiadu elektronicznego, wzięło udział około 100 osób – polityków, szefów firm technologicznych, naukowców i ekspertów oraz przedstawicieli społeczeństwa obywatelskiego.
W środę (1 listopada) delegaci z 28 krajów oraz Unii Europejskiej uzgodnili wspólne oświadczenie, które nazwano deklaracją z Bletchley, wzywające do globalnej współpracy w celu zwalczania zagrożeń, związanych ze sztuczną inteligencją. W porozumieniu uznano, że sztuczna inteligencja „stwarza ogromne globalne możliwości”, ale należy ją rozwijać w sposób „skoncentrowany na człowieku, godny zaufania i odpowiedzialny”.
I. globalny szczyt na temat bezpieczeństwie AI
.To pierwsze na świecie międzynarodowe oświadczenie w sprawie tak zwanej granicznej sztucznej inteligencji – rządowego terminu określającego sztuczną inteligencję, która może przekroczyć możliwości dzisiejszych najbardziej zaawansowanych systemów.
„Do tego tygodnia świat nie miał nawet wspólnego zrozumienia ryzyka. Naszym pierwszym krokiem było więc przeprowadzenie otwartej i inkluzywnej rozmowy w celu znalezienia wspólnego zrozumienia. Przeanalizowaliśmy najnowsze dostępne dowody. dotyczące wszystkiego, od szkód społecznych, takich jak uprzedzenia i dezinformacja, do ryzyka niewłaściwego wykorzystania przez złych aktorów, aż po najbardziej ekstremalne ryzyko całkowitej utraty kontroli nad sztuczną inteligencją” – mówił szef brytyjskiego rządu, Rishi Sunak.
.W czwartek na szczycie ogłoszono, że reprezentanci państw oraz firm rozwijających sztuczną inteligencję uzgodniły plan testowania jej bezpieczeństwa. W oświadczeniu rządy i firmy uznały, że obie strony mają do odegrania kluczową rolę w testowaniu modeli sztucznej inteligencji nowej generacji, aby zapewnić bezpieczeństwo zarówno przed, jak i po wdrożeniu modeli.
Obejmuje to współpracę w zakresie testowania nowej generacji modeli AI pod kątem szeregu potencjalnie szkodliwych możliwości, w tym krytycznego bezpieczeństwa narodowego i szkód społecznych. Uzgodniono, że rządy mają do odegrania rolę w zapewnieniu zewnętrznych testów bezpieczeństwa pionierskich modeli sztucznej inteligencji, co oznacza odejście od sytuacji, w której wyłącznie firmy są odpowiedzialne za bezpieczeństwa nowych modeli.
Premier Wielkiej Brytanii o szczycie o bezpieczeństwie AI
.Światowi przywódcy mają „obowiązek” zająć się zagrożeniami, związanymi ze sztuczną inteligencją – oświadczył brytyjski premier Rishi Sunak, podczas zakończonego w czwartek pierwszego globalnego szczytu, poświęconego bezpieczeństwu sztucznej inteligencji (AI).
„Naprawdę wierzę, że nie ma w naszej przewidywalnej przyszłości niczego, co byłoby bardziej transformujące nasze gospodarki, nasze społeczeństwa i całe nasze życie, niż rozwój technologii takich jak sztuczna inteligencja. Ale jak każda fala nowych technologii, niesie ona ze sobą również nowe obawy i zagrożenia. Bez względu na to, jak trudne może to być, jest właściwą i odpowiedzialną długoterminową decyzją przywódców, aby się nimi zająć” – powiedział Sunak w wygłoszonym przemówieniu. W ten sposób podsumowano I. globalny szczyt na temat bezpieczeństwa AI.
Wszyscy skorzystamy z szybko rozwijającej się sztucznej inteligencji
.Sztuczna inteligencja ułatwia funkcjonowanie nam wszystkim. Na łamach Wszystko co Najważniejsze Eryk Mistewicz wskazuje na argumenty za i przeciw powszechnemu wykorzystaniu nowinek technologicznych AI. Jak w „Można wydłużać listę cudownych działań, jakie na rzecz człowieka, na naszą rzecz będzie podejmowała Sztuczna Inteligencja. Nic już nie będziemy musieć. Będziemy odciążeni od tylu spraw — i wreszcie wolni, choćby wolni od konieczności robienia wciąż czegoś, wolni do nicnierobienia. Skorzystamy wszyscy!”
„Nie rozumiem instytucji europejskich i krajowych, które nie wprowadzają najprostszych systemów kontroli tego, jak działa Sztuczna Inteligencja, tego, jak zbierane są dane, na podstawie jakich algorytmów działania. Zresztą, operatorzy Sztucznej Inteligencji są dziś równie sprawni, jak branże farmaceutyczna i tytoniowa, jeśli chodzi o lobbing w instytucjach tak europejskich, jak i krajowych. Nie rozumiem twierdzenia: oddajemy dane obywateli, a wy sobie je bierzcie i róbcie na nich biznes”.
PAP/Bartłomiej Niedziński/Wszystko co Najważniejsze/KR