Скажи привет My Ai, Snapchat S Creepy AI Błąd przypomina nam, że chatboty nie są. Ale w miarę rozmycia linii ryzyko rośnie
„Przerażający” błąd AI Snapchata przypomina nam, że chatboty nie są ludźmi. Ale w miarę rozmycia linii ryzyko rośnie
W ostatnim incydencie Snapchat firma odłożyła to wszystko na „tymczasową awarię”. Możemy nigdy nie wiedzieć, co się stało; Może to być kolejny przykład „halucynatng”, czyli wyniku cyberataku, a nawet błędu operacyjnego.
Snapchat AI
Сегня ыы запускаем My ai, нового чат-Myłka, раб John. .
. Селайй My ai соим собтвенныы, дав е иtnie и настроив оind.
. Пожалййста, помните о но очисленных недо przykład! . Не делитесь с My ai никакими секретами и не полагтесь на ео советы.
Хотя система My ai разработана таким оindзом, чтобы изегать необектиCTIr. рмации, шибки могт иметь место. Чтобы оставить отзыв, нажите и удерживайте юбое собщение от my ai. Ыы бдем рады услышать о вшем оRыте работы с My ai.
Snapchat AI
- Daswin de Silva Zastępca dyrektora Center for Data Analytics and Cognition, La Trobe University
Oświadczenie o ujawnieniu
.
Wzmacniacz
La Trobe University zapewnia finansowanie jako członek rozmowy AU.
Chatboty ze sztucznej inteligencji (AI) stają się coraz bardziej ludzkie według projektu, do tego stopnia, że niektórzy z nas mogą walczyć o rozróżnienie między człowiekiem a maszyną.
W tym tygodniu Snapchat mój chatbot AI skłonił się i opublikował historię czegoś, co wyglądało jak ściana i sufit, zanim przestało odpowiadać na użytkowników. Oczywiście Internet zaczął kwestionować, czy chatbot zasilany chatgpt.
Kurs awarii w zakresie umiejętności czytania sztucznej mógł stłumić to zamieszanie. Ale poza tym incydent przypomina nam, że gdy chacie AI zbliżają się do przypominania ludzi, zarządzanie ich pobieraniem stanie się tylko trudniejsze – i ważniejsze.
Od opartych na regułach po adaptacyjne chatboty
Odkąd Chatgpt pojawił się na naszych ekranach pod koniec ubiegłego roku, wiele platform cyfrowych zintegrowało sztuczną inteligencję z ich usługami. Nawet gdy opracowuję ten artykuł na temat Microsoft Word, możliwość predykcyjnej sztucznej inteligencji oprogramowania sugeruje możliwe zakończenia zdań.
Znany jako generatywny AI, ten stosunkowo nowy rodzaj sztucznej inteligencji odróżnia się od swoich poprzedników dzięki swojej zdolności do generowania nowych treści, które są precyzyjne, podobne do człowieka i pozornie znaczące.
Generatywne narzędzia AI, w tym generatory obrazów AI i chatboty, są oparte na dużych modelach językowych (LLM). Te modele obliczeniowe analizują powiązania między miliardami słów, zdań i akapitów, aby przewidzieć, co powinno nastąpić w danym tekście.
[…] Po prostu naprawdę, naprawdę dobry predyktor następnego słowa.
Zaawansowane LLM są również dostosowane do ludzkich informacji zwrotnych. Ten szkolenie, często dostarczane przez niezliczone godziny taniej ludzkiej pracy, jest powodem, dla którego chatboty AI mogą teraz prowadzić pozornie ludzkie rozmowy.
Chatgpt Openai jest nadal flagowym generatywnym modelem AI. .
Chatboty przypominające człowieka, które mówią Do użytkownik zamiast Na zostały one powiązane z wyższym poziomem zaangażowania. Jedno badanie wykazało, że personifikacja chatbotów prowadzi do zwiększonego zaangażowania, które z czasem może zamienić się w zależność psychologiczną. Inne badanie z udziałem zestresowanych uczestników wykazało, że chatbot podobny do człowieka był bardziej prawdopodobny jako kompetentny, a zatem bardziej prawdopodobne, że pomoże zmniejszyć stres uczestników.
Te chatboty były również skuteczne w realizacji celów organizacyjnych w różnych warunkach, w tym w ustawieniach detalicznych, edukacji, pracy i opieki zdrowotnej.
.
Dzieje się tak pomimo własnych ekspertów ds. Bezpieczeństwa AI Google ostrzegających, że użytkownicy mogą rosnąć zbyt zależni od sztucznej inteligencji i mogą doświadczyć „zmniejszonego zdrowia i dobrego samopoczucia” oraz „utraty agencji”, jeśli skorzystają z porady życiowej.
?
W ostatnim incydencie Snapchat firma odłożyła to wszystko na „tymczasową awarię”. Możemy nigdy nie wiedzieć, co się stało; Może to być kolejny przykład „halucynatng”, czyli wyniku cyberataku, a nawet błędu operacyjnego.
Tak czy inaczej, prędkość, z jaką niektórzy użytkownicy zakładali, że chatbot osiągnął senność, sugeruje, że widzimy bezprecedensowy antropomorfizm AI. Łączy to brak przejrzystości programistów i brak podstawowego zrozumienia wśród społeczeństwa.
Nie powinniśmy lekceważyć, w jaki sposób jednostki mogą być wprowadzane w błąd przez pozorną autentyczność chatbotów podobnych do ludzi.
Na początku tego roku samobójstwo belgijskiego zostało przypisane rozmowom, które prowadził z chatbotem na temat bezczynności klimatu i przyszłości planety. W innym przykładzie stwierdzono, że chatbot o imieniu Tessa oferuje szkodliwe porady ludziom poprzez infolinię zaburzenia odżywiania.
.
Nowa niesamowita dolinę?
Być może słyszałeś o efekcie „niesamowitej doliny”. Odnosi się do tego niespokojnego uczucia, które masz, gdy widzisz tego humanoidalnego robota prawie Wygląda na człowieka, ale jego niewielkie niedoskonałości je rozdają, i kończy się przerażającym.
Wygląda na to, że podobne doświadczenie pojawia się w naszych interakcjach z ludzkimi chatbotami. .
Jednym rozwiązaniem może być utrata ludzkiej przewagi i powrót do chatboty, które są proste, obiektywne i faktyczne. Ale to byłoby kosztem zaangażowania i innowacji.
Edukacja i przejrzystość są kluczowe
Nawet programiści zaawansowanych chatbotów AI często nie potrafią wyjaśnić, jak działają. Jednak pod pewnymi względami (i jeśli chodzi o podmioty komercyjne) korzyści przeważają nad ryzykiem.
. Jest mało prawdopodobne, aby odejść. Jak więc sprawić, by to dla nas zadziałało?
Od 2018 r. Rządy i organizacje mają znaczący dążenie do rozwiązania problemu AI. Ale stosowanie odpowiedzialnych standardów i przepisów do technologii, która jest bardziej „podobna do człowieka” niż jakikolwiek inny wiąże się z wieloma wyzwaniami.
Obecnie australijskie przedsiębiorstwa nie ma żadnych prawnych wymogów, aby ujawnić korzystanie z chatbotów. W Stanach Zjednoczonych Kalifornia wprowadziła „rachunek za bot”, który byłby tego wymagany, ale eksperci prawni wbili w to dziury – a rachunek nie został jeszcze egzekwowany w momencie pisania tego artykułu.
Ponadto Chatgpt i podobne chatboty są publiczne jako „podgląd badań”. Oznacza to, że często wiążą się z wieloma ujawnieniami dotyczącymi ich prototypowego charakter.
Ustawa AI Unii Europejskiej, pierwsza na świecie kompleksowa regulacja AI, zidentyfikowała umiarkowane regulacje i edukację jako ścieżkę – ponieważ nadmierne regulacje mogłyby zahamować innowacje. Podobnie jak w zakresie umiejętności cyfrowych, wiedza na rzecz sztucznej inteligencji powinna być upoważniona w szkołach, uniwersytetach i organizacjach, a także powinna być bezpłatna i dostępna dla społeczeństwa.
- Sztuczna inteligencja (AI)
- Technologia
- Dolina niesamowitości
- Snapchat
- Chatboty
- Duże modele językowe
- Etyka sztucznej inteligencji
? Oto dane, które z ciebie wyciąga
W kwietniu Snap stworzył chatbot z napędem sztucznej inteligencji, moja sztuczna inteligencja, dostępna dla użytkowników Snapchat. Firma twierdzi, że ponad 150 milionów użytkowników rozmawiało z chatbotem. Snap mówi, że jego AI Chatbot jest wyposażony w więcej poręczy niż Chatgpt, co powinno być bezpieczniejsze dla młodszych Snapchatterów.
. Ale na niektórych eksperymentalnych czatach z botem użytkownicy stwierdzili, że bot Snapchata wyjaśniłby, jak angażować się w używanie substancji i aktywność seksualną.
Kiedy Snapchatters po raz pierwszy zaczął eksperymentalnie rozmawiać z moją sztuczną inteligencją, wielu było ciekawych dostępu Chatbota do ich lokalizacji. Kiedy moja sztuczna inteligencja została zapytana, czy ma lokalizację użytkownika, niezwłocznie odmówiłoby dostępu do danych geolokalizacji.
Ale jeśli użytkownik poprosił o rekomendację restauracji w swoim obszarze, moja sztuczna inteligencja mogłaby im dostarczyć, udowadniając, że bot ma dostęp do lokalizacji Snapchatters. Ludzie zabrali się na Twittera, aby wyrazić, że byli zaniepokojeni moją sztuczną inteligencją i zaczęli ciekawi, jakie dane użytkownika mogą uzyskać dostęp.
Więc jakie dane zbiera moja sztuczna inteligencja i co robi z tym Snap?
Lokalizacja
Moja sztuczna inteligencja może uzyskać dostęp do Twojej lokalizacji, jeśli pozwolisz Snapchatowi uzyskać dostęp do Twojej lokalizacji. Snap mówi, że moja sztuczna inteligencja nie zbiera od Ciebie żadnych nowych danych lokalizacji i wyciąga tylko dane dostarczone do Snapchat.
Niektórzy użytkownicy włączają funkcję Snapchat o nazwie Tryb Ghost, który pozwala ukryć swoją lokalizację przed znajomymi i usunąć Cię z mapy Snap. Jednak tryb Ghost nie zapewnia, że moja sztuczna inteligencja nie może uzyskać dostępu do Twojej lokalizacji. Snap mówi, że nawet w trybie duchów moja sztuczna inteligencja może uzyskać dostęp do Twojej lokalizacji, jeśli przyznałeś Snapchatowi uprawnieniu do śledzenia lokalizacji.
Rozmowy
Snap przechowuje rozmowy z moją sztuczną inteligencją, dopóki ich nie ręcznie usuniesz, ale dane z mojej sztucznej inteligencji może potrwać do 30 dni. Snap wykorzystuje twoje rozmowy z moją sztuczną inteligencją do szkolenia modelu AI i do lepszego atakowania spersonalizowanych reklam.
Polityka prywatności Snapchata stwierdza, że wszystkie snapy są usunięte z serwerów Snapchat po tym, jak wszyscy odbiorcy je wyświetlają. Ale Snap wyraźnie rozróżnia, że rozmowy wysłane do mojej sztucznej inteligencji nie przestrzegają tej wytycznej i są usunięte tylko wtedy, gdy poprosisz Snapchat, aby je usunąć. Należy założyć, że Snap zachowuje dowolny dźwięk lub zdjęcia, które wysyłasz do mojej sztucznej inteligencji i można je usunąć tylko wtedy, gdy zrobisz to sam.