MKilku czołowych ekspertów technologicznych, takich jak dyrektor generalny Tesli Elon Musk i współzałożyciel Apple Steve Wozniak, wezwało do zaprzestania szybkiego rozwoju nowych i potężnych narzędzi sztucznej inteligencji. W liście otwartym opublikowanym w środę sygnatariusze wezwali do tymczasowego wstrzymania prac na co najmniej sześć miesięcy.
Ta przerwa w rozwoju powinna dać branży czas na ustanowienie standardów bezpieczeństwa dla rozwoju sztucznej inteligencji i uniknięcie potencjalnych szkód związanych z bardziej niebezpiecznymi technologiami sztucznej inteligencji. Jeśli firmy nie zgodzą się na to, rządy będą musiały wkroczyć i wprowadzić zamrożenie. Tak więc te sześć miesięcy należy wykorzystać między innymi na opracowanie protokołów bezpieczeństwa.
Telefon wykonała organizacja non-profit „przyszłość życia” Jest publikowany, a Musk służy jako zewnętrzny konsultant. Oprócz szefa Tesli oświadczenie podpisało ponad 1000 osób, w tym Emad Mostaque, prezes AI Stability i kilku programistów z DeepMind, spółki zależnej Google. Wśród zwolenników są także pionierzy sztucznej inteligencji, Stuart Russell, Gary Marcus i Joshua Bengio.
W oświadczeniu ostrzegają przed niebezpieczeństwami związanymi z tak zwaną generatywną sztuczną inteligencją, taką jak ta zaimplementowana za pomocą bota skryptowego ChatGPT lub generatora obrazu DALL-E firmy OpenAI. Te narzędzia sztucznej inteligencji mogą symulować interakcje międzyludzkie i generować teksty lub obrazy na podstawie niektórych słów kluczowych.
Musk wcześniej pracował z OpenAI
Musk pierwotnie był współzałożycielem startupu AI OpenAI jako organizacja non-profit. Jednak potem wycofał się po tym, jak prezes OpenAI, Sam Altman, przeforsował swoje plany rozwoju oprogramowania AI poprzez współpracę finansową i techniczną na dużą skalę, szczególnie z Microsoftem.
Odkąd ChatGPT został wydany w listopadzie ubiegłego roku, temat „sztucznej inteligencji” był w centrum uwagi opinii publicznej.
Google zostało zmuszone do porzucenia swojej dość restrykcyjnej ścieżki udostępniania narzędzi AI i stanęło w obliczu ataku OpenAI ze strony chatbota Barda.
W Niemczech stowarzyszenie TÜV z zadowoleniem przyjęło list otwarty. „Apel pokazuje polityczną potrzebę podjęcia działań na rzecz jasnego uregulowania prawnego AI” – wyjaśnił Joachim Bühler, dyrektor generalny stowarzyszenia TÜV. Tylko w ten sposób można kontrolować ryzyko związane ze szczególnie potężnymi systemami sztucznej inteligencji.
Istnieje ryzyko fałszywych wiadomości, propagandy i bezrobocia
Buehler podkreślił, że eksperci ostrzegają przed lawiną propagandy i fałszywych informacji, zniszczeniem wielu miejsc pracy i ogólną utratą kontroli. „Jednocześnie jasne jest, że systemy sztucznej inteligencji są coraz częściej stosowane w medycynie, pojazdach lub innych obszarach istotnych dla bezpieczeństwa. Awarie mogą mieć poważne konsekwencje”. Wytyczne prawne są niezbędne w tych obszarach. „To buduje zaufanie i wzmacnia wydajność. Innowacyjny, a nie spowalniający.
Od czasu uruchomienia ChatGPT w listopadzie 2022 r. wiele dużych firm, na czele z Microsoftem i Google, przystąpiło do wyścigu o przywództwo technologiczne w dziedzinie sztucznej inteligencji. Nowe aplikacje pojawiają się niemal co tydzień, ponieważ firmy spodziewają się ogromnych zysków z tej technologii.
Niektóre kraje, takie jak Chiny, uważają sztuczną inteligencję za strategicznie ważną i chcą dać programistom dużo swobody.
„It’s All in Stocks” to codzienna migawka giełdowa od redakcji biznesowej WELT. Codziennie od 7 rano z naszymi dziennikarzami finansowymi. Dla ekspertów giełdowych i początkujących. Subskrybuj podcast na SpotifyI Podcast Apple’aI Muzyka Amazona I Deezer. lub bezpośrednio przez kanał RSS.