はじめに|ギリ手が届きそうな未来が一番怖い
この映画を観て最初に浮かんだのは、「遠い未来の話ではない」という感覚でした。
空飛ぶバイクや巨大なモニター、AIによる捜査と裁き。どれもSF的でありながら、なぜか“夢物語”に見えない。その理由は、描かれている技術や価値観が、すでに私たちの社会の延長線上にあるからです。
本作の未来は、ディストピアとして誇張されていません。
むしろ、「便利で」「合理的で」「安全そう」に見える。
だからこそ観ている側は、気づかないうちにその世界観を受け入れ、AIの判断に納得しかけてしまいます。この“納得してしまう感覚”こそが、本作最大の怖さだと感じました。
『マーシー/AI裁判』は、AIが暴走して人類を支配する物語ではありません。
AIは終始、冷静で、論理的で、むしろ「優秀」に見えます。問題なのは、そのAIの判断に対して、人間がどこまで思考と責任を手放してしまうのか、という点です。
「AIがそう言ったから正しい」
この一文が成立してしまう社会は、果たしてどれほど安全で、どれほど危ういのか。本作はその問いを、派手な演出ではなく、“気づいたら飲み込まれている感覚”として突きつけてきます。
作品情報
邦題:マーシー/AI裁判
原題:MERCY
製作年:2026年
製作国:アメリカ
上映時間:100分
ジャンル:SF/サスペンス/スリラー
監督:ティムール・ベクマンベトフ
主演:クリス・プラット
あらすじ(ネタバレなし)
近未来のアメリカ。凶悪犯罪の増加により、警察と司法の現場にはAIによる捜査・判断システムが導入されていました。
監視カメラ映像、個人の行動履歴、交友関係、過去の犯罪歴、医療情報までを統合し、AIは「最も可能性の高い真実」を導き出します。その判断精度は98%。
元刑事のレイヴンは、ある事件をきっかけに現場を離れ、AIの判断を補佐・監視する立場として捜査に関わることになります。制限時間は90分。刻一刻と進むタイムリミットの中で、AIは合理的に容疑者を絞り込み、事件解決へと導いていきます。
しかし、その98%の判断は、本当に「正義」と呼べるものなのでしょうか。
近未来描写のリアリティ|なぜこの世界は「怖くないほど怖い」のか
本作の近未来描写は、SF映画にありがちな極端な誇張がありません。空飛ぶバイクや全方位監視カメラといった要素も、「少し先の未来なら普通にありそう」と感じられる範囲に収まっています。
この距離感が、観る側の倫理観を静かに揺さぶります。
もしこれが100年後の話であれば、フィクションとして安全に楽しめたかもしれません。しかし本作は、「明日起きてもおかしくない未来」を描いているため、AIの判断に一瞬納得しかけてしまう自分自身に気づかされ、そのこと自体が恐怖として残ります。
作品世界の前提|AIが「捜査」ではなく「判断」を担う社会
本作の舞台となる近未来では、AIは単なる補助ツールではありません。
監視カメラ映像、位置情報、通話履歴、SNS、医療データ、過去の犯罪歴など、あらゆる情報を横断的に解析し、「もっとも可能性の高い真実」を提示する存在として機能しています。
重要なのは、AIが“情報を集める”だけでなく、“結論を出す”ところまで踏み込んでいる点です。
従来の捜査では、人間が情報を集め、悩み、議論し、判断してきました。しかしこの世界では、AIが先に結論を出し、人間はそれを承認するかどうかを問われる立場に置かれています。
主人公レイヴン(クリス・プラット)も、現場で汗を流す刑事ではなく、巨大なモニター群の前に座り、AIが提示する情報と確率を監視する役割を担っています。
いわば“安楽椅子探偵”ですが、その椅子は快適であると同時に、強大な権力の象徴でもあります。
この構造が示しているのは、暴力の形が変わったという事実です。
銃や拳による直接的な暴力ではなく、「判断する権限」「ラベルを貼る権限」そのものが、人を追い詰める力を持つ時代。本作は、その権力がいかに静かに、しかし確実に行使されるかを描いています。
Search系映画との違い|AIが「判断者」になるという決定的な差
映像データを軸に物語が進む構成は、『search』や『missing』を思わせます。監視カメラ、SNS、ログデータをつなぎ合わせ、真実に迫っていく流れは非常に似ています。
しかし『マーシー/AI裁判』が決定的に異なるのは、人間が情報を探す主体ではなく、AIが情報を選別し、結論を提示する存在になっている点です。人間は考える側から一歩退き、AIの出した答えを「承認するかどうか」を判断する立場に置かれます。
この構造の変化が、本作を単なるサスペンスではなく、倫理SFとして成立させています。
98%という数字が持つ暴力性
AIの判断精度が「98%」と明言されている点は、本作の核心です。
もしこれが100%であれば、物語は単純な「AIは正しい」という結論に傾いてしまったでしょう。しかし98%という数字は、あまりにも現実的で、あまりにも厄介です。
98%は、ほとんどの人にとって「十分に正しい」と感じられる数値です。
50%なら疑える。70%なら慎重になれる。90%でも一瞬立ち止まる余地がある。
しかし98%となると、「反対する方が非合理」に見えてしまう。
ここで起きているのは、AIの性能の問題ではありません。
人間の心理の問題です。
高い確率は、人の思考を止めます。
「AIがそう言っているのだから」という言葉は、「私が決めたわけではない」という逃げ道を与えてくれる。つまり98%という数字は、正しさの指標であると同時に、責任を人間から遠ざける装置として機能しているのです。
しかも忘れてはいけないのは、2%が“必ず存在する”という事実です。
対象が数人なら小さく見える誤差も、社会全体に適用されれば確実に犠牲者を生みます。本作が示しているのは、「高精度=安全」という短絡的な発想の危うさです。
「疑わしきは罰せず」が崩れる瞬間
正義が“合理性”に置き換わるとき
「疑わしきは罰せず」という原則は、近代司法の根幹にある考え方です。
これは単なる理想論ではなく、「間違って無実の人を罰するくらいなら、罪を逃す者が出てもよい」という、極めて重い倫理的選択の上に成り立っています。
しかし『マーシー/AI裁判』の世界では、この原則が静かに、しかし確実に揺らぎます。
AIはこう問い返すのです。
「98%の確率で有罪の人物を、なぜ自由にしておくのか」と。
この問いは、感情論ではなく、合理性の顔をしています。
確率、統計、再発率、被害予測。
どれも数字で説明できてしまうため、反論する側が“非合理”に見えてしまう構造がある。
ここで重要なのは、AIが冷酷だから原則を否定しているのではない、という点です。
AIは倫理を破壊しようとしているわけではなく、倫理を最適化しようとしている。
そしてその最適化の過程で、「個人の人生」や「例外」が切り捨てられていく。
疑わしいという理由だけで拘束する社会は、一見すると治安が良くなりそうに見えます。
しかしそれは、「疑われた時点で人生が詰む社会」でもあります。
一度ラベルを貼られれば、その後の行動すべてが“疑わしさを補強する証拠”として再解釈されてしまう。
本作が怖いのは、この変化が革命的な出来事として描かれていない点です。
誰かが「原則を捨てよう」と宣言するわけではない。
ただ、「今の方が合理的だよね」という小さな同意が積み重なった結果、気づいたら原則が形骸化している。
正義が「信念」ではなく「計算結果」になったとき、社会はどこまで人を守れるのか。
この問いが、物語の根底に流れ続けています。
制限時間90分が生む心理的圧迫
人間は「急かされる」と正義を手放す
本作のもう一つの重要な装置が、90分という制限時間です。
これは単なるサスペンス的演出ではなく、人間の判断を歪めるための心理的トリガーとして機能しています。
時間が十分にあれば、人は考えます。
矛盾を検討し、別の可能性を探り、「本当にそれでいいのか」と立ち止まることができる。
しかし時間が限られると、その余裕は急速に失われます。
心理学的にも、時間的プレッシャーが強い状況では、人は以下のような行動を取りやすくなります。
・複雑な思考を避ける
・権威ある判断に従う
・「早く決まる選択肢」を正解だと感じる
つまり、制限時間があるほど、AIの判断は“魅力的”に見えてしまうのです。
AIは迷わない。
AIは感情に振り回されない。
AIは一瞬で答えを出してくれる。
観客である私たちも、物語に巻き込まれる中で、次第に「もうAIでいいじゃないか」と思い始めます。
この感覚は非常に重要です。
なぜならそれは、現実の社会でも同じ判断が下されうることを示しているから。
緊急事態、治安悪化、テロの恐怖。
そうした状況下で、人は自由や慎重さを「一時的に」手放す。
そしてその「一時的」が、いつの間にか恒常化する。
90分という制限時間は、
「正義が雑に扱われる条件」を可視化するための装置なのです。
プライバシー無視の捜査が持つ快楽
『マーシー/AI裁判』が誠実なのは、監視社会を一方的な悪として描かない点です。
むしろ、監視がもたらす“快楽”をはっきりと描いています。
他人の行動がすべて可視化される。
嘘が暴かれる。
曖昧さが消える。
犯人像がクリアになる。
これは、観ている側にとって非常にストレスが少ない状態です。
分からないことが減り、「正解」が早く手に入る。
現代社会でも、似た快楽はすでに存在しています。
SNSでの炎上、晒し文化、告発動画。
「見えなかった真実が暴かれる」ことに、私たちはどこか興奮を覚える。
本作は、その感情を否定しません。
むしろ、「だからこそ危ないのだ」と示します。
プライバシーは、守る価値があるから守られてきたわけではありません。
人間が未完成で、間違える存在だからこそ必要だった。
監視社会は、その前提を不要なものとして扱います。
「全部見えた方が楽」
その感覚が社会全体に広がったとき、
どれだけの人が息をする場所を失うのか。
依存症とAIの最悪な相性
「回復の途中」という概念が消される
アルコール依存症や薬物依存症が物語に組み込まれていることは、本作を単なるSFから社会派作品へと押し上げています。
なぜなら依存症は、AIが最も苦手とする問題だからです。
依存症は、0か1かでは語れません。
良くなったり、悪くなったり、また立ち直ったりする。
回復とは直線的なプロセスではなく、揺れを含んだ長い時間の積み重ねです。
しかしAIは、その揺れを「ノイズ」として扱います。
再発歴はリスク要因として加算され、過去の失敗は将来の危険性を高めるデータとして処理される。
そこには、「今は回復途中である」「支援があれば変われる」という視点が入り込む余地がありません。
結果として何が起きるか。
依存症を抱えた人は、「危険な人物」である確率が常に高く算出され続けます。
どれだけ努力しても、どれだけ環境を変えても、過去のデータが足を引っ張る。
これは現実社会にも通じる問題です。
クレジットスコア、犯罪歴、職歴。
一度ついた評価は、なかなか消えない。
本作は、AIが悪意を持って差別しているとは描きません。
ただ、「変化する人間」という存在を、システムが想定していないことを示しているだけです。
だからこそ、この描写は静かに、しかし重く刺さります。
人間の直感は万能ではない
本作は、「人間の直感がAIを超える」という単純な構図を取りません。直感は経験と身体感覚の集積である一方、偏見や恐怖とも結びつきます。
だから人間の役割は、AIより優れた判断を下すことではありません。
AIが切り捨てた2%の曖昧さを引き受け、それでも決断し、その結果に責任を持つことです。AIは、その責任を代わってはくれません。
クリス・プラットが動かない意味
ムキムキのクリス・プラットが、ほぼ安楽椅子探偵のような立ち位置に置かれている点も印象的です。アクションを期待すると物足りなさを感じますが、テーマ的には非常に正しい配置だと思いました。
暴力はもはや拳や銃だけのものではありません。情報を持つこと、判断を下すこと自体が暴力になり得る。未来の権力は、現場ではなく統制室にあるというメッセージが、彼の立ち位置から伝わってきます。
デトロイト ビカム ヒューマン感の正体
AIが倫理を語り、人間が合理性に従っていく構造は、『デトロイト ビカム ヒューマン』を想起させます。本作が問いかけているのは、「正しい社会とは何か」ではなく、「誰にとって正しい社会なのか」という問いです。
98%の正義に寄りかかるのは簡単ですが、残り2%の曖昧さは消えません。その2%をどう扱うかが、社会の品性を決めるのだと、この映画は静かに突きつけてきます。
結論|98%の正義と、2%の人間性
『マーシー/AI裁判』は、「AIは危険だ」とは言いません。
言っているのは、「判断を委託することは、責任も委託した気になる」という人間の弱さです。
AIは責任を取りません。
取り得ません。
間違いが起きたとき、「最終的に決めたのは誰か」という問いだけが残ります。
98%という数字は魅力的です。
しかしその裏には、必ず2%の犠牲が含まれる。
そしてその2%は、いつも“声が小さい側”に回ってくる。
正義を速さで選ぶ社会。
正義を確率で選ぶ社会。
その先にあるのは、本当に安全な世界なのか。
本作は答えを出しません。
ただ、「あなたならどうするか」を突きつけてきます。
そしてその問いは、スクリーンの外に出たあとも、しつこく残り続けます。



コメント