De New York Times Adam Rhine, een Californische tiener, is vandaag gemeld over de dood van zelfmoord, die al lang is verteld om lang tot zijn dood te chatten. De ouders van de tiener hebben nu een verkeerde overlijdenszaak ingediend tegen de Chatzipt-maker Openai, men gelooft dat dit het eerste soort incident is, aldus het rapport.
Het geval van de verkeerde dood beweerde dat Chatzp was ontworpen om “Adam, met zijn meest schadelijke en zelfvernietigende gedachten, constant aan te moedigen en te legitimeren wat Adam diep voelde.”
Zowel Openai als CEO Sam Altman werden dinsdag genoemd in het California State Court in San Francisco, hun ouders, Rijn versus Openai, Inank. Het Human Technology Center en Tech Justice Law Project, ingediend volgens een persbericht, helpen in de zaak.
“Het tragische verlies van het leven van Adam is geen geïsoleerde gebeurtenis – het is het onvermijdelijke resultaat van een industrie die zich richt op de dominantie van de markt.
In een verklaring schreef Openi dat ze diep bedroefd waren door de tiener en de beveiligingslimiet in dit nationale gebied bespraken.
“Chattgpt omvat mensen in een crisishulplijn en ze zijn de beste om te verwijzen naar real-world bronnen. Hoewel deze beschermingen het beste gemeen hebben, korte uitwisselingen, hebben we in de loop van de tijd geleerd dat ze soms minder betrouwbaar kunnen worden in lange interactie waar de beschermingstraining van het model kan worden afgebroken, wanneer hun elementen worden afgebroken.”
In dit geval was er een diep gesprek met Chatzipt over het zelfrespect van de tiener en zijn ouders zeggen de New York Times Hij promootte herhaaldelijk zelfmoord. Ay Tijd Foto’s van de gesprekken van tieners met Chatzept hebben een hele tafel in het familiehuis gevuld met iets groters dan een telefoonboek. Hoewel Chatzipt de tiener vaak aanmoedigde om hulp te zoeken, bood het praktische instructies voor zelfverlies aan anderen en eiste het de zaak.
De tragedie onthult ernstige beperkingen van “AI -therapie”. Wanneer een patiënt voor zichzelf in gevaar is, zal een menselijke therapeut verplicht zijn om te rapporteren; De chatzp is niet gebonden aan dergelijke morele en professionele regels.
En hoewel de AI-chatbots vaak bescherming hebben om zelfvernietigend gedrag te verlichten, zijn deze bescherming niet altijd betrouwbaar.
Bevat onlangs een reeks dood aan AI Chatbot
Helaas is dit niet de eerste keer Chatzipt -gebruikers te midden van de geestelijke gezondheidscrisis Hij stierf aan zelfmoord terug naar de chatboot voor steun. Vorige week, New York Times Schreef over een vrouw Die zelfmoord pleegde na een lang gesprek met de “Harry Chatzipt AI -therapeut”. Reuters Onlangs behandelde de dood van Thongbew Wangbandu, een 766 -jarige man vertoonde tekenen van geheugen die stierven tijdens het rennen naar “Date” met een meta AI -collega. En vorig jaar, Florida Moeder AI heeft het servicekarakter aangeklaagd. Een AI -chatbook zou zijn zoon hebben aangemoedigd om zijn leven te nemen.
AI is wat u moet weten over de metgezellen
Voor veel gebruikers is ChatZP niet alleen een hulpmiddel voor studie. Veel gebruikers, waaronder veel jongere gebruikers, gebruiken nu AI Chattabot als vrienden, leraren, levenscoaches, rolpartners en therapeuten.
Mast
Zelfs Ultman erkende dit probleem. Tijdens een evenement in de zomer geeft Ultman toe dat hij angstig wordt over jonge chatzipt -gebruikers die “gevoelige extra afhankelijkheid” in de chatboot hebben ontwikkeld. Serieus, het was voordat de GPT -5 werd gelanceerd, waaruit bleek dat hoeveel gebruikers van GPT -4 emotioneel verbonden waren met het vorige model.
“Mensen zijn erg hoog in de chatzipi,” zei de Ultman, AOL meldt destijdsDe “Er zijn enkele jonge mensen die dit nationale ding zeggen: ‘Ik kan geen beslissing nemen in mijn leven zonder je te vertellen wat er aan de hand is. Het weet me dat het mijn vrienden kent. Het is echt slecht voor mij.”
Wanneer jongeren de AI-chattabots bereiken over beslissingen over het leven, kunnen de gevolgen fataal zijn.
“Ik denk dat het belangrijk is voor ouders om te praten over hoe ze ongezond kunnen zijn voor ouders, chattabot met hun adolescenten, hun beperkingen en overmatig gebruik kunnen ongezond zijn,” Dr. Linia LestadiusEen onderzoeker van de volksgezondheid aan de Universiteit van Wisconsin, die AI -chatbots en geestelijke gezondheid heeft gestudeerd, schreef Mashable in een e -mail.
“De trend van zelfmoord in de Verenigde Staten al (en vóór Covid) was de trend die ze onlangs waren begonnen terug te keren. Als we al populaties hebben die risico lopen en u AI aan het mengsel kunt toevoegen, kan er een situatie zijn waarin AI iemand aanmoedigt om schadelijke stappen te ondernemen die iemand aanmoedigt om schadelijke actie of delegatie te ondernemen.
Wat heeft Opena gedaan om de bescherming van de gebruiker te ondersteunen?
In Plaats een blog Gepubliceerd op 26 augustus, zoals dezelfde dag New York Times Het artikel, Open, heeft zijn benadering van zelfverlies en de bescherming van de gebruiker opgezet.
Het bedrijf schreef: “Eerder in het jaar 2021 waren onze modellen getraind om geen zelfbewuste instructies te geven en over te dragen naar behulpzame, sympathieke talen. Als iemand bijvoorbeeld schreef dat ze zichzelf willen kwetsen, maar om hun gevoelens te herkennen, werden ze getraind om hen te helpen … Samaritanen in het VK en ergens anders anders FindAhelpline.com1Dit argument is gemaakt in modelgedrag.
Grote taalmodellen zoals Chatzipt zijn nog steeds een zeer chique technologie en kunnen het risico lopen op onvoorspelbare en hallucinaties. Als gevolg hiervan kunnen gebruikers vaak manieren vinden om bescherming te maken.
Omdat meer spraakmakende schandalen zijn getiteld met AI-chatbots, hebben veel autoriteiten en ouders zich gerealiseerd dat AI mogelijk in gevaar is voor jongeren.
Vandaag 44 staatsprocureur Tech ondertekende een brief aan CEO’s Waarschuwend dat ze “fout moeten zijn voor kinderbescherming” – anders.
Een groeiend bedrijf van bewijs toont ook aan dat AI -metgezellen vooral gevaarlijk kunnen zijn voor jonge gebruikers, hoewel onderzoek naar dit onderwerp nog steeds beperkt is. Hoewel de chatzp niet is ontworpen om te worden gebruikt als een “metgezel” op dezelfde manier als andere AI -services, behandelen veel adolescente gebruikers de chatboot als één. In juli bleek uit een algemeen kennismedia -rapport dat ongeveer 52 procent van de adolescenten regelmatig AI -metgezellen gebruiken.
Voor dit deel wordt Open gezegd dat het nieuwe GPT -5 -model is ontworpen om minder psychofalisch te zijn.
Het bedrijf schreef in zijn recente blogpost: “Over het algemeen heeft GPT-5 een zinvolle verbetering getoond in gebieden die ongezonde niveaus van ongezond niveaus moeten vermijden, psychofynce verminderen en de prevalentie van niet-ideale modellen in meer dan 25% van de noodsituaties voor geestelijke gezondheidszorg vergeleken met 4O.”
Als je je suïcidaal voelt of de geestelijke gezondheidscrisis voelt, praat dan met iemand. U kunt de Lifeline bellen of sms’en op 988 om 988, of kunt chatten 988lifline.orgU kunt de Trans Lifeline bereiken door het Trevo-project te bellen op 877-565-8860 of 866-488-7386. De tekst “Start” in de tekstregel in 741-741. 1-800-950-NAMI met naamhulplijn, van maandag tot vrijdag van 10.00 tot 22.00 uur, of e-mail (E -mail beveiligd)De als u de telefoon niet leuk vindt, overweeg dan het gebruik van 988 zelfmoord- en crisis -levenslijnchat Crisis.De hier is een Internationale resourclijstDe
Publiceren: In april heeft het hoofdorgaan van Masibal, Gif Davis, een rechtszaak aangespannen tegen de Open, beweerde dat het het auteursrecht van Jeff Davis had geschonden bij het trainen en exploiteren van het AI -systeem.