すべての自殺を防ぐことはできませんが、リスクを下げるのに役立つことはたくさんあります。その中には、スマートフォンのような身近なものもあります。
医療システム、ハイテク企業、研究機関は、自殺防止にどのように貢献できるかを模索しています。一般的なテクノロジー、特に人工知能(AI)を活用して、自殺のリスクの微妙な兆候を捉え、人間が介入するよう注意を促すことを検討しているのです。
カリフォルニア州パロアルトにあるスタンフォード大学医学部の自殺予防研究所の所長兼創設者であるレベッカ・バーナード博士は、「テクノロジーには課題がないわけではありませんが、素晴らしい機会を提供してくれます」と述べています。
例えば、AIが健康記録に基づいてリスクの高い患者を特定できれば、プライマリーケアの医師はその患者を支援する準備を整えることができる、とバーナートは言います。メンタルヘルスの専門家は特別な訓練を受けていますが、研究によると、自殺で亡くなった人のうち、約45%が人生の最後の1カ月にプライマリーケア医に診てもらっています。メンタルヘルスの専門家に診てもらうのは、わずか20%です。
ここでは、開発中またはすでに実現している技術の進歩をご紹介します。
あなたの声から手がかりを得る
マサチューセッツ州ウースターにあるウースター工科大学の研究者たちは、スマートフォンのデータをマイニングして、そのスマホのユーザーの自殺リスクを評価するEMU(Early Mental Health Uncovering)というAIベースのプログラムを構築中です。
この技術はまだ開発中です。この技術はまだ開発中で、医療従事者の提案で、携帯電話にダウンロードできる健康アプリの一部になる可能性があります。
必要な権限をすべて与えると、アプリはAIを導入し、携帯電話を通じてあなたの自殺のリスクを監視します。アプリに含まれる機能には、アプリのボイスアナライザーに話しかけるオプションがあります。アプリは、うつ病や自殺願望を示す可能性のある音声の微妙な特徴を検出することができます。
心理学者のエドウィン・ブードロー博士は、「人間には検出できないが、AIには大規模なデータセットで訓練されているため検出できる音声特性がある」と話す。彼は、UMass Chan Medical Schoolの救急医学科の研究副委員長だ。
「音声とその他のデータソースを組み合わせて、気分が落ち込んでいるかどうか、自殺願望があるかどうかをしっかりと予測することができます」と、このアプリを作っている会社に金銭的な利害関係のないブードローは言う。「電話の生体検査のようなものです」。
スマートフォンのデータは、ユーザーの許可を得て、電話のユーザー自身に警告を送るために使われる可能性がある。そうすれば、助けを求めたり、安全対策を見直すよう促すことができるかもしれません。あるいは、その人の医療提供者に警告を発することもできるかもしれません。
アプリは現在、その主張をサポートするために政府の承認を必要としないので、自殺防止に関連するアプリを使用する場合は、セラピスト、精神科医、または医師とよく話し合ってください。
専門知識の共有
Googleは、全米自殺防止ライフラインなど、自殺の危険性がある人々にリソースを提供する活動を行っています。また、LGBTQの自殺防止ホットラインであるThe Trevor ProjectとAIの専門知識を共有し、最もリスクの高い通報者を特定し、より早く助けを得られるよう支援しています。
危機的状況にある人がテキスト、チャット、電話でThe Trevor Projectに連絡すると、3つの質問に答えてから、危機管理サポートに接続されます。Googleが運営する慈善プログラムであるGoogle.org Fellowsは、Trevor Projectがコンピュータを使用して、受付質問に対する回答の中から最も高く差し迫った危険と関連する単語を特定するのを支援しました。
危機的状況にある人々が、Trevor Projectの受付質問に対する回答でこれらのキーワードのいくつかを使用すると、その電話はサポートのための列の先頭に移動するのです。
タフネス文化
軍関係者や警察官の間で自殺のリスクが特に高いことは、すでにご存知かもしれません。また、パンデミック時の医療従事者の自殺についても、間違いなく耳にしたことがあるはずです。
しかし、もうひとつ自殺率の高い分野がある。
CDCによると、建設業従事者が自殺で亡くなる確率は、他の職業の人の2倍で、仕事上のケガで亡くなるよりも5倍も高いそうです。身体的損傷の割合が高いこと、慢性的な痛みがあること、仕事が不安定であること、仕事のために長距離を移動することによる社会的孤立などが、その一因である可能性があります。
建設労働者のための遠隔医療会社であるジョブサイトケアは、建設業界における自殺へのハイテク対応を試験的に行っています。同社は、現場で負傷した建設労働者に、現場の医療用トレーラーのロッカーに保管されたタブレット端末を通じて遠隔医療を提供しています。同社は現在、このケアを精神的なケアや危機対応にまで拡大しようとしています。
作業員はトレーラーのタブレット端末を通じて、数秒で助けを得ることができます。また、24時間365日対応のホットラインや、遠隔医療による継続的なメンタルヘルスのケアにもアクセスすることができます。
「遠隔メンタルヘルスは、遠隔医療における大きな成功例のひとつです」と、JobSiteCareの創設者兼CEOであるDan Carlin医学博士は言います。「と、JobSiteCareの創設者であるDan Carlin医学博士は言います。「建設業では、仕事であちこちに行くので、遠隔医療はどこに行ってもついてきます。
自殺安全対策アプリ
Jasprアプリは、自殺未遂の後、まだ病院にいるときから支援することを目的としています。その仕組みはこうです。
医療従事者が、入院中の患者さんと一緒にアプリを使い始める。一緒に、将来の自殺未遂を防ぐための安全策を考える。安全計画は、医療従事者が患者さんとともに作成する文書で、将来の精神衛生上の危機、および自殺思考の引き金となるストレス要因に対処するのに役立ちます。
患者さんは、ジャスプールのホームコンパニオンアプリをダウンロードします。セーフティプラン、セーフティプランに基づいた危機管理ツール、危機の際に役立つリソース、自殺未遂から生還した人や愛する人を自殺で失った人からの励ましのビデオにアクセスすることができます。
もしAIが間違ったことをしたら?
AIが自殺リスクのある人を誤判定する可能性は常にある。AIは、そのアルゴリズムの原動力となるデータと同じくらい良いものでしかないのです。
誤検出」とは、誰かが危険であると認識されることですが、実際はそうではありません。この場合、自殺の危険性があると誤って認識されることを意味します。
一方、「偽陰性」は、リスクがあるにもかかわらず、そのフラグが立てられないことを意味します。
ブードローは、「偽陰性」と「偽陽性」の両方がもたらす害のリスクは、研究者がその効果を確認する前にAIを使って自殺のリスクを特定するには大きすぎると言う。
彼は、フェイスブックがAIを使って、自殺の危険が差し迫っている可能性のあるユーザーを特定したことを指摘している。
Facebookの親会社であるMetaは、ユーザーの自殺リスクを特定し対処するためにAIを使用していることについて、医師のコメント要請に応じなかった。
同社のウェブサイトによると、フェイスブックでは、フェイスブックライブ動画など、人が自殺に関連する危機にあることを示す可能性のある投稿について、ユーザーが報告することができる。また、AIが投稿をスキャンし、適切と判断された場合には、ユーザーが投稿を報告するための選択肢をより目立つようにするとのことです。ユーザーが投稿を報告するかどうかにかかわらず、AIはFacebookの投稿やライブ動画をスキャンしてフラグを立てることも可能です。Facebookのスタッフは、ユーザーまたはAIによってフラグが立てられた投稿や動画を確認し、その対処方法を決定します。
彼らは、投稿を作成した人に、友人や、今月3桁の988番を開始した全米自殺防止ライフラインなどの危機管理ヘルプラインに連絡を取るようアドバイスすることもある。ユーザーは、Facebookメッセンジャーを通じて、危機管理センターに直接連絡することができます。
投稿が緊急の危険を示している場合、Facebookは、危機に瀕しているFacebookユーザーの近くの警察署に連絡することもある。その後、警察官がユーザーの自宅に派遣され、健康状態を確認します。
ソーシャルメディアプラットフォームのTikTokも、この記事のためのインタビューを拒否しましたが、電子メールで背景情報を提供してくれました。これには、ユーザーを危機管理ホットラインにつなぐことや、緊急の投稿を法執行機関に報告することなどが含まれます。TikTokはまた、同プラットフォームでの自殺関連の検索に対応して、ホットライン番号やその他の危機管理リソースを提供しています。
プライバシーに関する懸念
ソーシャルメディアプラットフォームが警察に連絡する可能性は、プライバシー専門家だけでなく、Boudreauxのような精神衛生の専門家からも批判を浴びている。
"これはひどいアイデアだ "と彼は言う。"Facebookは、AIがバックグラウンドで動作していること、AIが何かを特定した場合にどのような結果になるかをユーザーが知らないまま展開した。警察官を送ることは、特にマイノリティの場合、状況を悪化させるだけかもしれません。恥ずかしさやトラウマになりかねないことに加え、共有すると悪いことが起こるので、共有することを思いとどまらせることになります。"
Journal of Law and the Biosciences誌によると、Facebookの投稿を法執行機関に送る可能性のあるアルゴリズムが欧州連合で禁止されている理由は、プライバシーに関する懸念にあるそうです。
ブードローは、リスクが高いと誤認された人が受ける影響は、その組織がリスクが高いと思われる人にどのように関わるかによって異なると説明しています。医療従事者が不必要な電話をかけても、警察が不必要な訪問をするのと同じような害はないかもしれません。
あなたやあなたの知り合いが自殺を考えている場合、全米自殺防止ライフラインに連絡することができます。 米国では、2022年7月16日現在、電話、テキスト、チャットで988から全米自殺防止ライフラインに連絡することができます。 また、ライフラインの元の番号である800-273-8255に電話することもできます。 24時間365日、英語とスペイン語で対応可能です。