自分が受験勉強しつつ考えた人間主体システムという概念。
早くも壁にぶち当たった。
でも実現したい。
「解決型ものづくり」じゃなくて
そもそものシステムが問題じゃないかという
アプローチから発想を始めたことなので。
今は人間不在のシステムに進みつつあるけど
人を入れないといつか破綻が来るのではと考えたから。
GPT先生と会話して作ったここ1週間の考え。
- 定義
「人間主体システム」とは、 システムの運用や意思決定において、人間の関与が不可欠な仕組みを持つシステム のこと。
ただ「使いやすいITシステム」や「人に優しいデザイン」という意味ではなく、 人間が意思決定しないと成り立たない という点が重要。
- 特徴
人間の判断が必要
→ 完全自動化ではなく、意図的に人間が介入できるよう設計する。
透明性がある
→ システムの動作原理や意思決定のプロセスがブラックボックス化しない。
適応性がある
→ 予期しない状況や新しい課題にも、人間が対応しやすい仕組みになっている。
責任の所在が明確
→ 誰が・どの段階で・何を判断したのかが追跡できる。
3. 例え話(身近なシステム)
「徹子の部屋」のゲスト入場
→ 徹子さんの「ではお入りください」の一言がないと、ゲストは入れない。
→ 人間の決定なしには進まないシステムになっている。
お風呂の自動給湯
→ 湯量や温度は自動で調整できるけど、「風呂自動」のボタンを押さないとお湯が出ない。
→ 最終的な判断は人間がする。
4. 逆のシステム(ブラックボックス化しやすいシステム)
完全自動運転(事故時に人間が介入できない)
AIによる自動審査(なぜ不合格になったのか説明がない)
ボタン1つで完了する金融取引(誤操作時に取り消せない)
5. 人間主体システムの必要性(なぜ重要か)
事故や不具合を防ぐため(福知山線事故、JCO臨界事故のような事例を防止)
柔軟な対応を可能にするため(未知のトラブルに適応できる)
責任の所在を明確にするため(問題発生時に対処しやすい)
ユーザーが安心して使えるため(何が起きているのか理解できる)
6. 具体的な設計アプローチ
意図的に人間の確認・承認ステップを入れる
→ 例:自動運転でも、異常時は運転手が操作できるようにする。
システムの動作を可視化する
→ 例:AIの判断基準をユーザーに説明する機能をつける。
誤操作やリスクを考慮した設計をする
→ 例:金融取引の「最終確認」ボタンを設ける。
7. まとめ
✅ 人間主体システムは、人間の意思決定を中心に据えたシステム設計の考え方。
✅ 完全自動化のリスク(ブラックボックス化・事故)を回避するために重要。
✅ 「導き・能動・流動」がキーワードで、人が理解し、動かし、適応できる仕組みを目指す。
ミュートしたユーザーの投稿です。
投稿を表示Miμさん、こういうプロセス、言語化することは大変重要ですね、思考も整理ができますので、問題も明確になり、次のステップ、検討が容易になります。
根本的なところにはなりますが、人間の意思決定というプロセスで、大変気になることが、「成功体験」と「ヒューマンエラー」です。
「成功体験」とは、過去、自分が成功を収めた体験は、自信となり、強くその人の思考に残ります。逆に言うと、「成功体験」は新たなミッションを行ううえでも、必要な「自信」となるものの、裏返すと、その体験価値が強くこびり付いていることにより、柔軟な解決方法が思い浮かばないことがあります。我々のような年配がよく陥りがちなところで、過去の成功体験が邪魔をして、今の判断を誤ることがあることに、注意が必要です。これが、ヒューマンエラーにつながるといっても過言ではないかもしれません。そういう意味でも、いろいろな人間に話を聞く、というのが解決策かもしれませんので、プロセスの一つに加えてもらえたらと思います。
昭和の仕事のやり方で、「壁打ち」というものがあります、何度も壁に当たって、打ち返してると、どんどん仕事がよくなるプロセスのことを言います。すでに、Miμさんは実践されていて、すばらしいと思います。