AIの時代に、人間の生活はどこに置かれるのか
将棋では、AIはもう人間より強い。
それは以前から何となく知っていたけれど、藤井聡太さんのような、人間の将棋の到達点にいる人であっても、最強の将棋AIと1000回戦っても1勝できるかどうかすら怪しいらしい。そう言われると、もう「強い」という言葉では足りない。別の次元にいる、と言ったほうが近いだろう。
しかしそれでも、将棋はなくならない。
AIのほうが正しいと分かっていても、人間がその局面で、その持ち時間の中で、その一手を選んだという事実には、まだ意味がある。
将棋において、AIの正しさは人間の意味を完全には消さない。
なぜなら、将棋は盤上に閉じているからだ。
勝敗は厳しい。評価値は冷たい。けれど、そこで失われるものは基本的には一局であり、タイトルであり、棋士としての評価である。もちろん本人にとっては重大だが、それでも将棋は、人間が人間として指すことを許す場所であり続ける。
しかし、医療では同じようには言えない。
医療では、AIが人間より高い精度で診断し、治療方針を示し、発症リスクや生存率を予測するようになったとき、「それでも人間医師の判断に任せる意味がある」と簡単には言えなくなる。
将棋であれば、AIの最善手と違う手を指したとしても、それは勝負の一部になる。
しかし医療で、AIが示した推奨と違う判断をして、悪い結果がでたとしたら、それは「人間らしい判断だった」とは言いにくい。
AIに従えば寿命が伸びる。
発症率が下がる。
再発リスクが減る。
生存率が上がる。
そう言われたとき、人間はAIの判断から自由でいられるのか。
形式上は、医師が最終判断をすることになる。
説明責任も、同意取得も、治療方針の決定も、人間の医師が担うことになるだろう。
けれど、もしAIのほうが統計的に明らかに優れているなら、医師がAIに逆らうことは、ほとんど不合理として扱われる。
AIに逆らって失敗すれば、問われる。
なぜAIの推奨に従わなかったのか。
なぜ標準的な判断から外れたのか。
なぜ個人的な経験や直感を優先したのか。
では、AIに従って失敗した場合はどうか。
そのときも、やはり人間は問われる。
なぜ異常に気づかなかったのか。
なぜ止められなかったのか。
なぜ患者の個別事情を見落としたのか。
なぜ最終判断者として責任を果たさなかったのか。
ここには、かなり苦しい構造がある。
AIに逆らえば、非合理だと言われる。
AIに従えば、主体性が薄まる。
それでも失敗すれば、人間が責任を問われる。
つまり、人間は判断の自由を失いながら、責任だけを保持することになる。
この構造は、飛行機のパイロットにも似ているかもしれない。
現代の航空機では、多くの飛行が自動化されている。
人間は監視し、確認し、異常時に介入する。
それは一見、人間と機械の理想的な分担に見える。
普段は機械が得意なことを行い、人間は最後の安全装置として残る。
だが、自動化が進めば進むほど、人間は異常に触れる機会を失っていく。
事故が減る。
それ自体は良いことだけれど、事故が減るほど、人間は事故に近い状況を経験しなくなる。
経験しなくなるほど、いざというときの判断力や身体感覚は弱くなる。
普段は機械のほうがうまくやる。
だから人間は任せる。
しかし、破綻した瞬間だけ、人間は突然、完全な責任主体として呼び戻される。
なぜ見抜けなかったのか。
なぜ介入できなかったのか。
なぜ止められなかったのか。
これは、人間にとってかなり不公平な位置である。
権限は機械に移っている。
日常的な判断も機械に移っている。
経験を積む機会も機械によって奪われている。
それなのに、事故の瞬間だけ、人間が責任を背負う。
社会全般において、AIが進むとこれに近いことが起きる。
「最終判断は人間です」という言葉は残るかもしれない。
しかし、その言葉の中身は変わっていく。
本当に選べるから最終判断者なのではない。
制度上、誰かを最終判断者として置かなければならないから、人間がそこに置かれる。
そういう形になっていく。
だが、その人は本当に選べたのか。
AIの推奨と違う道を選ぶことが、現実的に可能だったのか。
制度の前提を疑う余地があったのか。
生活全体を含めて考える機会があったのか。
そこが曖昧なまま「人間が最終判断しました」と言われても、それは責任の所在を明らかにしているというより、責任を形式の中に押し込めているだけとなるかもしれない。
この問題は、専門家の権威とも重なる。
専門家は知識を持っている。
医師は医学を知っている。
エンジニアは技術を知っている。
官僚は制度を知っている。
法律家は法を知っている。
それは必要なことだ。
専門性なしに、手術も、薬も、橋も、通信網も、金融も、行政も成り立たない。
素人だけで社会を動かすことはできない。
歴史はそうやってできてきた。
しかし、専門性はすぐに権威になる。
「医学的にはこうです」
「技術的には無理です」
「安全上必要です」
「制度上そうなっています」
専門用語の正確な意味も、リスク評価の方法も、制度の運用基準も、技術的制約の細部も分からない。
だが、分からないからといって、何も失っていないわけではない。
むしろ、失うのはこちらである。
一ヶ月入院してください、と言われる。
医療の側から見れば、それは必要な治療計画なのだろう。
入院加療。
経過観察。
安静。
検査。
退院後フォロー。
言葉は整っている。
手続きも整っている。
医学的な理由もある。
けれど、生活の側から見れば、一ヶ月の入院は単なる治療期間ではない。
一ヶ月、社会から消えること。
仕事が止まること。
収入が揺らぐこと。
職場での立場が変わること。
人間関係が遠のくことだ。
退院したとき、自分の席が以前と同じ場所にあるとは限らないことだ。
医療の中では、それは「事情」と呼ばれるかもしれない。
しかし、その事情こそが生活である。
それらを切り離して、「医学的には必要です」と言われても、その必要性は人間全体に届いていない。
専門家の責任は、しばしば専門領域の内側に限られる。
医師は身体に責任を持つ。
エンジニアはシステムに責任を持つ。
官僚は制度運用に責任を持つ。
だが、人間の生活は領域ごとに分かれていない。
身体を守るために、生活が壊れることがある。
セキュリティを守るために、使えない人が生まれることがある。
制度の公平性を守るために、個別の生活が破壊されることがある。
そして、その破壊はしばしば専門家の責任範囲の外に置かれる。
医学的には正しい。
技術的には正しい。
制度上は正しい。
だが、その正しさによって壊れた生活は、誰の前に置かれるのか。
ここにAIが入ってくる。
AIが専門家よりも正確で、速く、網羅的に判断できるようになったとき、専門家の権威は一見揺らぐように見える。
医師だけが知っていたことを、AIも説明できる。
エンジニアだけが理解していた構造を、AIも言語化できる。
制度の複雑な運用も、AIが読み解ける。
そうなれば、専門家の壁は低くなるようにも思える。
けれど、逆のことも起きる。
「医師がそう言っています」から、
「医師とAIが一致しています」になる。
「技術的に無理です」から、
「システム上、不可能と判定されています」になる。
「制度上できません」から、
「審査モデルでも対象外です」になる。
こうなると、むしろ逃げ場は狭くなる。
人間の専門家だけなら、まだ問い返す余地があった。
相手も人間だから、説明を求めることができた。
食い下がることができた。
例外を訴えることができた。
しかし、AIがそこに加わると、判断はより客観的に見える。
冷静で、中立で、統計的で、感情に左右されないように見える。
そのため、反論する側の言葉はますます弱くなる。
そうした言葉は、AIと専門家と制度の前で、また「個人的事情」になってしまう。
だから問題は、AIが賢いかどうかではない。
AIが、誰の言葉を強くするのかである。
専門家の判断を補強するために使われるのか。
制度の硬さをさらに正当化するために使われるのか。
企業や行政や医療機関が、自分たちの判断をより反論しにくいものにするために使われるのか。
それとも、これまで弱かった言葉を場に戻すために使われるのか。
「この入院は医学的には必要だが、生活面ではこれだけの損失を生む」
「この仕様は安全上は合理的だが、この利用者にはこのような不利益を押しつける」
「この制度運用は公平性を保っているように見えるが、こういう人を制度の外に落としている」
そういうことを、専門知識の言葉と生活の言葉のあいだで翻訳できるなら、AIには別の意味が生まれる。
AIに、新しい権威になってほしいわけではない。
医師を消してほしいわけでもない。
エンジニアを消してほしいわけでもない。
官僚を消してほしいわけでもない。
ただ、閉じられていた言葉を開いてほしい。
専門家だけが扱える言葉を、生活者の側に戻してほしい。
「仕方ない」とされてきたことの中に、誰の損失が含まれているのかを見えるようにしてほしい。
「安全」「効率」「公平」「最適化」という言葉の下で、何が小さく扱われているのかを明らかにしてほしい。
AIが強くなるほど、人間の判断は狭くなる。
だが、人間の責任はすぐには消えない。
むしろ、判断の自由が狭まったあとも、責任だけは人間に残されるかもしれない。
そのとき、人間は何をしているのか。
選んでいるのか。
同意しているのか。
監督しているのか。
それとも、選んだことにされ、同意したことにされ、監督したことにされているだけなのか。
AIの判断には逆らえないと言う前に、我々はすでに専門家の言葉に逆らえないし、制度の運用にも逆らえない。
けれど、最後には「あなたも説明を受けました」「あなたも同意しました」「人間が確認しました」と言われる。
それは、人間中心ではない。
人間を中心に置いているように見せながら、人間を責任の置き場にしているだけである。
一ヶ月の入院が、社会的生活を壊す。
そんなことは、本当は誰でも分かる。
けれど、専門的な場面では、その当たり前が弱くなる。
医学の前では、生活は事情になる。
技術の前では、不便は仕様外になる。
制度の前では、個別性は例外になる。
しかし、人間の生は、その事情や不便や例外の中にある。
患者は、患者である前に生活者である。
身体だけを治しても、生活が壊れれば、その人は元の場所には戻れない。
システムが安全でも、使えない人を外に出せば、その安全は誰かの排除の上に成り立っている。
制度が公平でも、現実の人間を拾えないなら、その公平は人間の複雑さを切り落としている。
AIが問われるべきなのは、性能だけではない。
そのAIは、誰の言葉を強くしているのか。
誰の沈黙をそのままにしているのか。
誰の損失を見えないままにしているのか。
誰の生活を、判断の外側に置いているのか。
そこを問わないままAIを使えば、AIはただ新しい権威になる。
しかも、人間の専門家よりも反論しにくい権威になる。
人間が最終判断者です、という言葉は残るかもしれない。
だが、その言葉が本当に人間を守るとは限らない。
人間を守るためには、判断の最後に人間の名前を書くことでは足りない。
判断の途中に、その人の生活が入っていなければならない。
身体だけでなく、仕事も、住まいも、時間も、関係も、不安も、将来も、同じ場に置かれていなければならない。
AIが人間を超える時代に、本当に消えそうなのは、人間そのものではない。
人間の生活が、判断の中心から消えることだ。
だから、問いはこうなる。
AIは人間より賢いのか。
それはもう、多くの領域で答えが見え始めている。
本当に問うべきなのは、その賢さが何を照らし、何を暗くするのかである。
専門家の正しさだけを照らすのか。
制度の都合だけを照らすのか。
それとも、これまで「事情」と呼ばれて後ろに下げられてきた、人間の生活そのものを照らすのか。
その問いに答えないまま、「AIは便利です」「AIは正確です」「最終判断は人間です」と言っても、たぶん足りない。
人間は、判断の最後に署名する存在ではない。
人間は、最初から生活している存在である。
その生活を中心に置けないなら、どれほど賢いAIも、ただ世界を少し冷たく、少し反論しにくくするだけなのだと思う。