Dass Jugendliche sich an eine Institution wie U25 wenden, hat unterschiedliche Gründe: Da ist zum einen die Scham, das eigene Leben nicht in den Griff zu bekommen. Auch trauen sich viele nicht, Familie und Freunde zu behelligen, weil ihre Probleme entweder bagatellisiert werden - oder aber übertriebenen Aktionismus nach sich ziehen. "Stell dich mal nicht so an", hören die einen - die anderen fürchten, gleich in die Geschlossene eingeliefert zu werden.
Sie fühlen sich alleine mit ihren Problemen - obwohl Nahestehende sich möglicherweise Sorgen machen: "Manche haben einen Verdacht und denken sich: Das spreche ich besser nicht an, nachher bringe ich die Person auf falsche Gedanken", so Brockerhoff. So entsteht ein Teufelskreis aus Hilflosigkeit und Tabuisierung.
Depression lässt sich am Instagram-Profil erkennen
Wer Jugendliche erreichen will, muss ins Internet: Hier teilen die meisten sich und ihre Gefühlslage eh bereits in der virtuellen Welt mit. Und immer häufiger äußern Menschen auch auf Social-Media-Plattformen wie Facebook Live Suizidgedanken.
Facebook-Gründer Mark Zuckerberg will es den Nutzern in Zukunft einfacher machen, aufeinander zu achten. Meldet ein User einen bedenklichen Inhalt, erhält er von Mitarbeitern einen vorformulierten beschwichtigenden Text, den er seinem Freund zusenden kann. Auch gibt es in den USA bereits die Möglichkeit, gleich aus dem Netzwerk heraus den Notruf zu wählen. Darüber hinaus rät Facebook dem Suizidgefährdeten, die Telefonseelsorge zu kontaktieren.
Für Status-Updates und Kommentare, die von Suizidabsichten handeln, gibt es diese Funktionen schon länger - bald soll ein zusätzlicher Algorithmus eine auffällige Wortwahl in öffentlichen Posts erkennen können. Wenn ein Nutzer über Selbstverletzungen, Depressionen oder Suizid schreibt, werden bei Facebook automatisch speziell ausgebildete Mitarbeiter informiert.
Auch auf Instagram soll aus Präventionsgründen zukünftig vermehrt künstliche Intelligenz zum Einsatz kommen. Die Wissenschaftler Christopher Danfort und Andrew Reece von den Universitäten Harvard und Vermont fanden etwa im Rahmen einer aktuellen Studie heraus, dass sich am Instagram-Auftritt erkennen lässt, ob eine Person depressiv ist. Nach Auswertung von mehr als 43 000 Fotos stellten sie fest, dass Depressive häufiger dunkle, graue, blaue oder Schwarz-Weiß-Aufnahmen posten. Auf den Bildern gesunder Nutzer sind öfter Gesichter zu sehen - der beliebteste Filter gestaltet sie wärmer und heller.
Jan Kalbitzer, Facharzt für Psychiatrie und Leiter des Zentrums für Internet und seelische Gesundheit (ZISG) an der Berliner Charité, findet die Nutzung von Algorithmen zur Suizidvorbeugung grundsätzlich sinnvoll. Er sorgt sich jedoch, dass die gesellschaftliche Verantwortung auf Maschinen abgewälzt werden könnte: "Algorithmen sind zwar effektiv, allerdings gehen dabei die menschlichen Strukturen verloren." Seiner Meinung nach ist der wichtigste Schutz eine unterstützende soziale Umgebung. Bei einer technischen Lösug bestehe außerdem die Gefahr, dass sich Nutzer nicht mehr trauen, Privates auf sozialen Netzwerken mitzuteilen - aus Angst, von einer künstlichen Intelligenz abgestempelt zu werden.
Auch Niko Brockerhoff sieht daher vor allem die Menschen, die sich in sozialen Netzwerken bewegen, in der Pflicht, Nutzer zu kontaktieren, die Bedenkliches posten - und auf Angebote wie U25 aufmerksam zu machen. Auch die Initiative selbst plant, zeitgemäßer zu werden. Künftig will man für den Erstkontakt von Emails auf Chats umzusteigen. Damit die Beratung so schnell wie möglich beginnen kann.
Wenn Sie sich selbst betroffen fühlen, kontaktieren Sie bitte umgehend die Telefonseelsorge (www.telefonseelsorge.de) oder andere Initiativen wie die Online-Beratung U25. Unter der kostenlosen Hotline 0800-1110111 oder 0800-1110222 erhalten Sie Hilfe von Beratern, die schon in vielen Fällen Auswege aus schwierigen Situationen aufzeigen konnten.