Das Team sagt, dass YouTube mehr tun muss, insbesondere wenn es um den Umgang mit so sensiblen Inhalten wie Videos geht, die sich mit Suizidhilfe und -prävention befassen. Ein wichtiger Vorschlag besteht darin, den Algorithmus so zu optimieren, dass er solche Inhalte nicht zur empfohlenen Anzeige empfiehlt, da dies die Benutzer in ein „Kaninchenloch“ verstörender Inhalte bringen kann. Ein weiterer Vorschlag besteht darin, KI-basierte Tools zur Überwachung und rechtzeitigen Intervention einzusetzen, damit YouTube-Inhalte nicht dazu führen, dass die Einsamkeit und Ängste der Nutzer noch schlimmer werden.
„Die Trennung, die sich aus der zunehmenden Nutzung sozialer Medien ergibt, hängt Berichten zufolge mit einem Mangel an tiefen menschlichen Beziehungen und sozialen Verbindungen zusammen, insbesondere bei jungen Menschen“, heißt es in der im Fachmagazin „Informatics“ veröffentlichten Studie. Experten, die hinter der Studie stehen, schlagen vor, dass Benutzer, anstatt sich stark auf Online-Inhalte oder YouTuber zu verlassen, echte soziale Interaktionen suchen sollten, um ihre psychische Gesundheit zu unterstützen und ihre Einsamkeit zu bekämpfen.
Die Forscher schlagen die Entwicklung oder zumindest Konzeptprüfung von „von YouTube unabhängigen Algorithmen vor, die darauf abzielen, Empfehlungsverzerrungen und -fehler sowie moderate Interventionen durch die Empfehlung sicherer und angemessener Inhalte zur psychischen Gesundheit zu erkennen“. Dieses unabhängige algorithmische Protokoll muss mit Unterstützung von Experten für psychische Gesundheit erstellt werden, damit potenziell gefährdete Benutzer zu geeigneten Inhalten für psychische Gesundheit und Wohlbefinden weitergeleitet werden und über die richtigen Ressourcen verfügen, damit sie echte Unterstützung suchen können.