F-35でICBMの上昇中を撃破するためには、AMRAAMではダメ。新しい空対空ミサイルが必要になる。

  Karen Hao 記者による2019-1-21記事「AI is sending people to jail――and getting it wrong」。
    2016の統計。全米で220万人弱の成人が刑務所に服役していた。加えて450万人が、刑務所ではない矯正施設内に拘禁されていた。後者も、裁判所によって犯人に命じられる処置のひとつだ。
 すなわち全米成人38人に1人は、裁判所の命令により、更生課程を集合的に当局から監視されていることになる。
 刑務所の数を減らせという公的な圧力が強い。そこで米司法当局は、AIの導入を検討中である。
 街角監視カメラと顔認識ソフトを使い、どうせまた犯罪を犯すであろう者の居場所が警察に把握され、分署から巡査がその「犯罪の起きそうな場所」にあらかじめ派遣される。
 問題がいくつかある。AIは、肌の黒い顔の認識を、肌の白い顔の認識よりも間違え易い。これは統計的真実。
 また、過去のビッグデータの中に間違いが混じっていると、AIは、博捜のたびに、それを拾ってしまう。ガセネタだろうが関係はない。誤認される人物は、将来も、何度でも、誤認され続けることに……。
 ※「この男は過去に○回、別人と間違えられたことがある」という属性をサーバーのデータベース中にてタグ付けできるようにしておけばいい。さすればAIがサーチする都度、その属性も強調される。捜査員も、初見の現場警察官も、他の容疑者よりはそこに気をつけるようになる。AIが一段深く学習すればいいだけ。
 いま考えられている「リスク・アセスメント・アルゴリズム」は単純だ。容疑者の累犯記録を重視する。前科何犯かということ。
 そして判事に助言する。この被告人を矯正施設送りとすべきか、それとも刑務所送りとすべきか。保釈してよいかどうか。刑期はいかほどが適当か。常習犯ほど長くブチ込む。
 これによって合理的に、施設需要を減らせる。
 しかし問題がある。今のAIの関連付け流儀は、たとえば、こうだ。ビッグデータを調べたところ、過去の累犯スコアの大な人物の多くは、低所得者であった。そこからAIは、低所得者ならば再犯しやすいだろう、と示唆する。
 低所得のマイノリティが多い地区に多くの警官が派遣され、ますます多くの低所得マイノリティが刑事裁判を受けるという循環が始まる。
 黒人を弁護する者いわく。低所得マイノリティ地区にあるのは、リスクではなく、ニーズなんじゃないの。