国連の状態:殺害ロボットを禁止するどころか

未来の武器: Human Rights Watchは、自律型武器の規制に関するレポートを発行しました。 将来の戦争を決定するものは何ですか?

ハランはノルウェー平和チームのリーダーです。

人工知能はかつてないほど風に吹かれています。 技術の可能性が議論されています アレンダルスカ 社会的に関与した表現のための他のすべての主要な放送局と同じように。 人工知能は、進行中の戦いにおける重要な技術として認識されています Coronaエピデミック。 そして、それが欠けていたすべてでした。 人工知能を多用せずに、次のパンデミックに対して効果的な対策を講じることは考えられますか? 感染の検出、発生の世界的な監視、感染者の特定の可能性は計り知れません。 もちろん、そのような技術を上手く使えば、多くの苦しみを避けることができます。

貧困削減から気候変動までの課題に対する中心的な技術的答えとして人工知能が確立されていると同時に、この技術を規制する問題は少し邪魔になっているようです。 ここ自宅での感染追跡に関するプライバシーステートメントは、この例です。 このテクノロジーは、社会のほとんどの分野で非常に大きな可能性を秘めているため、世界は当然のことながらテクノロジーの使用を待ち望んでいます。 ニーズが非常に大きく、規制を試みる前に、すぐにテクノロジーを開発するようになった場合はどうでしょうか。

ほとんどの場合、そのような考えは理にかなっているかもしれませんが、人工知能にはいくつかの例外があります。 監視コミュニティへの道は短いです。 私たちはすでに民主主義の課題を知っています。 セクターごとに、テクノロジーが単に強力すぎて、社会的に高揚する可能性があるため、現在計画中のテクノロジーの結果を受け入れることができない場合もあります。 したがって、私たちは世界を良くするのではなく、すぐに悪くすることができます。

完全自律型兵器システム

テクノロジーが十分に強力であり、したがって社会的に大きく変化している場合、一度利用可能になったテクノロジーを使用しないことはすぐに不可能になる可能性があります。 軍需品、いわゆる自律兵器での人工知能の使用は、そのような場合かもしれません。

したがって、意味のある人間の制御を超えて標的を攻撃および破壊することができるそのような未来の武器は、未来の戦争を根本的に変える可能性があります。 実際に未来の戦争を決定するのはスピードです。 そして、戦場での決定がマシンに任されている場合、対戦相手の動きに対する応答時間もやや急激に低下します。 最速で描いた方が勝ちです。 サイバネティックなスピードで相手を打ち負かすことができる人は、人間が制御する武器システムからの抵抗をほとんど経験しません。 したがって、他の自律型兵器以外の完全自律型兵器システムに対する考えられる対策はありません。 この技術が存在する前に、自律型武器の開発、製造、使用を禁止する作業を推進したのは、そのような考えられるシナリオです。

何らかの形の意味のある人間による制御が必要です
自律兵器システム。

ヒューマンライツウォッチ は、ロボットの殺害を禁止するキャンペーンの主要な組織の2014つです。 このキャンペーンは自律型武器を禁止することを目的としており、XNUMX年以来、これに関する国連プロセスを推進する上で極めて重要です。 当分の間、国連諸国はそのような禁止について合意に達するにはほど遠い。 しかし、彼らは少なくとも過去XNUMX年間、そのような武器が生み出す課題について話し合うために時間を取っています-非人間に対する条約の枠組みの中で 武器。 最近来ました ヒューマンライツウォッチ 世界の州がこれまでに自律兵器の規制に関する政策を宣言したことについての報告とともに。 レポートのタイトルは「キラーロボットの停止:完全に自律的な武器の禁止と人間による制御の維持に関する国の立場」であり、次のURLで入手できます。 www.hrw.org

レポートは、97年以来2013の州から、この分野で公に表明された方針を特定しました。これは、分析のための優れたデータベースを提供します。 報告書は、これらの州のほとんどが、自律兵器システムに対する何らかの形の意味のある人間による制御が必要であると信じていることを発見しています。 2018年には、ブラジル、チリ、オーストリアも主導権を握り、国連での自律型武器の禁止に関する交渉を開始しました。 現在までに、XNUMXの州がそのような禁止事項を支持してきました。 同時に、米国やロシアなどの州は、禁止の考えに明らかに反対しています。 国連の非人道的武器条約の枠組みの中で交渉の禁止が開始されるためには、コンセンサスが必要です。 したがって、このようなことが予見可能な将来に起こり得ると信じる理由もありません。

ノルウェー

この報告書は、この分野におけるノルウェーの政策にも取り組んでいます。 本質的に、このポリシーは、人工知能を備えた自律型武器を開発することによって倫理的および法的問題を認識するノルウェーに基づいています。 そのような武器は「責任と説明責任の線を曖昧にする可能性がある」と警告されています。 同時に、ノルウェーはこれまで国連の禁止線を支持していません。 政府は禁止の問題について明確にされていませんが、石油基金の倫理的管理に関する議論は、ノルウェーの政治においても禁止の問題を前進させているようです。

NOU 2020:7、「価値と責任、政府年金基金グローバルの倫理的枠組み」では、2020年XNUMX月から、政府が任命した委員会が自律型武器に投資しないことを提唱しています。 これは、製品の作成の変更を提案することによって行われます。これは、今日、特定の種類の武器、タバコ、石炭の生産者が基金から除外されることを意味します。 基金が投資されるべきではない武器の種類を定義する武器基準は、特定され、拡大されることが提案されています。 致命的な自律兵器がリストに追加されることが提案されています。 委員会はこれを次のように正当化します。「自律型兵器では、力を使用するという決定は直接的な人間の制御の対象ではありません。 これは責任を不明確にし、委員会の見解では、根本的に問題があります。」 委員会の提案は、来年のStortingでさらに議論される予定です。 したがって、私たちはおそらく、国際的な禁止に賛成または反対するストーティングの立場にある当事者も見るでしょう。

また読む: メアリー・ウェアハム:手遅れになる前に殺害ロボットを止めなければなりません!

サブスクリプションNOK 195四半期

表示する記事はありません