Sind Social-Media-Apps „gefährliche Produkte“? 2 Wissenschaftler erklären, wie die Unternehmen auf junge Nutzer angewiesen sind, diese aber nicht schützen

Estimated read time 7 min read

„Du hast Blut an deinen Händen.“

„Es tut mir leid für alles, was Sie alle durchgemacht haben.“

Diese Zitate, das erste von Senator Lindsey Graham, RS.C., im Gespräch mit Mark Zuckerberg, CEO von Meta, und das zweite von Zuckerberg an Familien von Opfern von Online-Kindesmissbrauch im Publikum, sind Höhepunkte eines außergewöhnlichen Tages von Aussage vor dem Justizausschuss des Senats über den Schutz von Kindern im Internet.

Aber das vielleicht aussagekräftigste Zitat aus der Anhörung vom 31. Januar 2024 stammte nicht von den CEOs von Meta, TikTok, Betrieb sind gefährliche Produkte.“

Wir sind universitäre Forscher die studieren wie soziale Medien Nachrichten, Informationen und Communities organisieren. Ob Social-Media-Apps der rechtlichen Definition von „erfüllen“ oder nichtunverhältnismäßig gefährliche Produkte„Die Geschäftsmodelle der Social-Media-Unternehmen basieren tatsächlich auf Millionen junger Nutzer. Gleichzeitig glauben wir, dass die Unternehmen nicht genügend Ressourcen investiert haben, um diese Benutzer wirksam zu schützen.

Nutzung mobiler Geräte durch Kinder und Jugendliche stiegen während der Pandemie sprunghaft an und blieben hoch. Natürlich wollen Teenager dort sein, wo ihre Freunde sind, sei es im Skatepark oder in den sozialen Medien. Im Jahr 2022 gab es schätzungsweise 49,8 Millionen Nutzer unter 17 Jahren auf YouTube, 19 Millionen auf TikTok, 18 Millionen auf Snapchat, 16,7 Millionen auf Instagram, 9,9 Millionen auf Facebook und 7 Millionen auf Twitter. Nach einer aktuellen Studie von Forschern der Chan School of Public Health in Harvard.

Jugendliche sind eine wichtige Einnahmequelle für Social-Media-Unternehmen. Einnahmen von Nutzern unter 17 Jahren in sozialen Medien betrug 11 Milliarden US-Dollar im Jahr 2022, so die Studie der Chan School. Instagram erwirtschaftete fast 5 Milliarden US-Dollar, während TikTok und YouTube jeweils über 2 Milliarden US-Dollar einnahmen. Teenager bedeuten grün.

Social Media stellt eine Bandbreite der Risiken für Jugendliche, von Belästigung, Mobbing und sexueller Ausbeutung bis hin zur Förderung von Essstörungen und Selbstmordgedanken. Damit der Kongress sinnvolle Maßnahmen zum Schutz von Kindern im Internet ergreifen kann, identifizieren wir drei Probleme, die berücksichtigt werden müssen: Alter, Geschäftsmodell und Inhaltsmoderation.

Nach energischer Aufforderung durch Senator Josh Hawley, R-Mo., entschuldigte sich Mark Zuckerberg, CEO von Meta, bei den Familien der Opfer von Online-Kindesmissbrauch.

Wie alt bist du?

Social-Media-Unternehmen haben einen Anreiz, im Hinblick auf das Alter ihrer Nutzer wegzuschauen. Andernfalls müssten sie die Ressourcen aufwenden, um ihre Inhalte angemessen zu moderieren. Millionen minderjähriger Nutzer – die unter 13 – sind ein „offenes Geheimnis” bei Meta. Meta hat beschrieb einige mögliche Strategien um das Alter der Benutzer zu überprüfen, indem beispielsweise ein Ausweis oder Video-Selfies verlangt werden, und mithilfe von KI, um ihr Alter anhand von „Alles Gute zum Geburtstag“-Nachrichten zu erraten.

Die Genauigkeit dieser Methoden kann jedoch nicht öffentlich überprüft werden, sodass es schwierig ist, sie unabhängig zu prüfen.

Meta hat das gesagt Es sind Gesetze zur Sicherheit von Online-Teenagern erforderlich Um Schaden zu verhindern, verweist das Unternehmen jedoch auf App-Stores, die derzeit von Apple und Google dominiert werden, als den Ort, an dem die Altersüberprüfung erfolgen sollte. Diese Barrieren können jedoch leicht umgangen werden, indem man auf die Website einer Social-Media-Plattform und nicht auf deren App zugreift.

Neue Generationen von Kunden

Die Akzeptanz durch Jugendliche ist für das weitere Wachstum aller Social-Media-Plattformen von entscheidender Bedeutung. Der Facebook-DateienEine auf der Durchsicht von Unternehmensdokumenten basierende Untersuchung ergab, dass die Wachstumsstrategie von Instagram darauf beruht, dass Jugendliche Familienmitgliedern, insbesondere jüngeren Geschwistern, dabei helfen, auf die Plattform zu gelangen. Meta behauptet, dass es für eine „sinnvolle soziale Interaktion“ optimiert wird und den Inhalten von Familie und Freunden Vorrang vor anderen Interessen einräumt. Allerdings erlaubt Instagram Pseudonymität und Mehrfachkonten, was die elterliche Kontrolle noch schwieriger macht.

Am 7. November 2023, Autor Bejar, ein ehemaliger leitender Ingenieur bei Facebook, sagte vor dem Kongress aus. Bei Meta befragte er jugendliche Instagram-Nutzer und stellte fest, dass 24 % der 13- bis 15-Jährigen angaben, in den letzten sieben Tagen unerwünschte Annäherungsversuche erhalten zu haben, eine Tatsache, die er als „wahrscheinlich die größte sexuelle Belästigung von Teenagern aller Zeiten“ bezeichnet passiert.” Meta hat seitdem eingeführte Einschränkungen auf Direktnachrichten in seinen Produkten für minderjährige Benutzer.

Aber um es klarzustellen: Weitverbreitete Belästigung, Mobbing und Anstiftung sind Teil der Social-Media-Landschaft und es bedarf mehr als nur Eltern und App-Stores, um sie einzudämmen.

Meta gab kürzlich bekannt, dass es sich zum Ziel gesetzt hat, Jugendlichen „altersgerechte Erlebnisse“, unter anderem durch das Verbot der Suche nach Begriffen im Zusammenhang mit Selbstmord, Selbstverletzung und Essstörungen. Diese Schritte verhindern jedoch nicht, dass Online-Communities, die diese schädlichen Verhaltensweisen fördern, auf den Social-Media-Plattformen des Unternehmens florieren. Es bedarf eines sorgfältig geschulten Teams menschlicher Moderatoren, um Verstöße gegen die Nutzungsbedingungen gefährlicher Gruppen zu überwachen und durchzusetzen.

Inhaltsmoderation

Social-Media-Unternehmen verweisen auf das Versprechen künstlicher Intelligenz, Inhalte zu moderieren und für Sicherheit auf ihren Plattformen zu sorgen, doch KI ist kein Allheilmittel für die Steuerung menschlichen Verhaltens. Communities gewöhnen sich schnell an die KI-Moderation, ergänzen verbotene Wörter durch gezielte Rechtschreibfehler und erstellen Backup-Konten, um zu verhindern, dass sie von einer Plattform verwiesen werden.

Angesichts der Geschäftsmodelle und Praktiken von Social-Media-Unternehmen ist auch die Moderation menschlicher Inhalte problematisch. Seit 2022, Social-Media-Unternehmen haben massive Entlassungen durchgeführt, die den Kern ihrer Vertrauens- und Sicherheitsmaßnahmen getroffen und die Moderation von Inhalten in der gesamten Branche geschwächt haben.

Der Kongress benötigt konkrete Daten von den Social-Media-Unternehmen – Daten, die die Unternehmen bisher nicht bereitgestellt haben –, um das angemessene Verhältnis von Moderatoren zu Nutzern zu ermitteln.

Der Weg nach vorn

Im Gesundheitswesen haben Fachkräfte die Pflicht zu warnen, wenn sie glauben, dass etwas Gefährliches passieren könnte. Wenn diese unbequemen Wahrheiten in der Unternehmensforschung ans Licht kommen, wird wenig unternommen, um die Öffentlichkeit über Sicherheitsbedrohungen zu informieren. Der Kongress könnte eine Berichterstattung vorschreiben, wenn interne Studien schädliche Ergebnisse offenbaren.

Um Teenagern heutzutage zu helfen, müssen Social-Media-Unternehmen in die Moderation menschlicher Inhalte und eine aussagekräftige Altersüberprüfung investieren. Aber selbst das wird das Problem wahrscheinlich nicht beheben. Die Herausforderung besteht darin, sich mit der Realität auseinanderzusetzen, dass soziale Medien in ihrer heutigen Form davon leben, dass Legionen junger Nutzer viel Zeit in Umgebungen verbringen, die sie einem Risiko aussetzen. Diese Gefahren für junge Nutzer sind in der Gestaltung moderner sozialer Medien verankert, die viel klarere Vorschriften darüber erfordert, wer soziale Medien überwacht und wann ein Eingreifen erforderlich ist.

Einer der Beweggründe für Technologieunternehmen, ihre Nutzerbasis nicht nach Alter zu segmentieren, um Kinder besser zu schützen, ist, wie sich dies auf die Werbeeinnahmen auswirken würde. Dem Kongress stehen nur begrenzte Instrumente zur Verfügung, um Änderungen herbeizuführen, beispielsweise die Durchsetzung von Gesetzen zur Werbetransparenz, einschließlich der „Kennen Sie Ihren Kunden“-Regeln. Insbesondere da KI das zielgerichtete Marketing beschleunigt, werden Social-Media-Unternehmen es Werbetreibenden weiterhin leicht machen, Nutzer jeden Alters zu erreichen. Wenn Werbetreibende jedoch wüssten, welcher Anteil der Anzeigen von Kindern und nicht von Erwachsenen gesehen wird, würden sie möglicherweise zweimal darüber nachdenken, wo sie in Zukunft Anzeigen platzieren.

Trotz einer Reihe hochkarätiger Anhörungen zu den Schäden sozialer Medien hat der Kongress noch keine Gesetze zum Schutz von Kindern verabschiedet oder Social-Media-Plattformen für die auf ihren Plattformen veröffentlichten Inhalte haftbar gemacht. Aber da nach der Pandemie so viele junge Menschen online sind, liegt es am Kongress, Leitplanken einzuführen, die letztendlich die Privatsphäre und die Sicherheit der Gemeinschaft in den Mittelpunkt des Social-Media-Designs stellen.



Image Source

You May Also Like

More From Author

+ There are no comments

Add yours