AIは「職人技」を再現できるか
2023年08月02日 更新
[産経新聞]
AIへの投資は大企業が先行しているが、中小企業や農業の現場でも、人手不足を背景に模索が始まった。「人の仕事を奪う」という脅威論が台頭する中、AIを業務の効率化や労働環境の改善に役立てる仕組みづくりが重要になっている。
人が長い経験を積んで身につける「職人技」の継承で人工知能(AI)を活用する動きが出ている。AIへの投資は大企業が先行しているが、中小企業や農業の現場でも、人手不足を背景に模索が始まった。「人の仕事を奪う」という脅威論が台頭する中、AIを業務の効率化や労働環境の改善に役立てる仕組みづくりが重要になっている。 三菱総研と三菱UFJフィナンシャル・グループが出資するシステム開発会社、三菱総研DCS(東京都品川区)は昨年までに、「熟練技能者の暗黙知をAIで代替する実証実験」を製造業2社と行った。
ChatGPTは「AIの間違い」への寛容さを高めるのか
先日、野村総合研究所が日本のChatGPT利用に関するレポートを公開しました。それによると、ChatGPTを運営する「Openai.com」への国別トラフィックシェアにおいて、日本は米国、インドに次いで世界第3位となったそうです。興味深いことにサイトの平均滞在時間は米国、インドより長く、また平日に比べると土日のアクセス数は急減するといった特徴があるとか。
推測ですが、業務などで積極的に活用している事例も日本では少なくないのかもしれません。
ChatGPTがAI(人工知能)に対する人々の関わり方に大きなインパクトを与えたことは間違いないでしょう。
それは単に、AIがより利用しやすく、身近になったという変化にとどまるものではありません。もう少し深い部分で、「AIは間違えるかもしれないけれど、便利なものだ」という認識が広まりつつあるように思うのです。
ChatGPTを使ってみたことがある方なら分かると思いますが、このサービスはそれなりの頻度で「自信満々にうそをつく」という現象が発生します。いわゆるハルシネーションの問題です。
またそもそも、大規模言語モデル(LLM)の構築時点で学習していない知識は回答することは(基本的に)できません。この意味でChatGPTは確かに完全に信頼できる存在ではないことは確かです。しかし、だからと言って「役に立たない」ということにはならないはずです。
例えば、アイデアの壁打ち程度の役割をChatGPTに担ってほしいのであれば、そこで求められるのは正確性よりも反応速度と手数の多さです。
人間同士のブレインストーミングにおいて、発言の正確性を最も重視するという話は聞いたことがありません。
アイデアのたたき台をChatGPTに用意してもらうというのも理にかなっているでしょう。たたき台は文字通り「たたかれる」、つまり後工程での修正を前提としているのですから、その過程で必要に応じてファクトチェックを行えばよい話です。
最近、筆者がいいなと感じたChatGPTの使い方の1つに、「ChatGPTに回答をツリー構造で表示できるようにしてもらう」というものがあります。
noteの人気記事が出典ですが、こちらが投げかけた質問への回答をオブジェクト指向の開発で用いられる図の描画に使うPlantUML形式で記述してもらい、それをビジュアライズするツールに自力でコピペして、ツリー構造の図を生成する、というものです。
これだと分かりづらいと思うので、例を挙げてみましょう。
「工場における主要なセキュリティ課題をツリー構造で表現します。PlantUML形式で出力してください」とChatGPTに依頼したとします。
するとChatGPTは「工場における主要なセキュリティ課題」を親として、「フィジカルセキュリティ」「ネットワークセキュリティ」「システムセキュリティ」「データセキュリティ」「ソーシャルエンジニアリング」などを子とするツリー構造を実現するコードを出力してくれます。
さらに「ネットワークセキュリティ」の下には「ネットワークのセグメント化とセキュアな接続」「不正アクセス対策と認証/認可の管理」が、「システムセキュリティ」の下には「セキュアなオペレーティングシステムとパッチ管理」「ソフトウェアの脆弱性評価と対策」「データのバックアップと災害復旧計画」などが並びます。
これの何がいいのか。
それは、こちらが設定したトピックの全体像を、粗過ぎず、細かすぎず、視覚的に分かりやすく表示するすべを与えてくれる点です。
これから学習を進めたいトピックについては、まず押さえるべき注目テーマを粗々で示してくれます。学習の効率化に貢献するでしょう。
既に知っているトピックであっても、ある業界のトレンドを専門外の人に説明するとき、押さえておくべき要素が抜け落ちていないか確認するのに役立つはずです。もちろん、回答内容は完全ではありません。
実は省略しましたが、「ネットワークセキュリティ」の下には「イントラusionディテクションシステムの導入」なる謎の文言が記載されていました。
ただ、回答として表示されるのは、いずれも単語や短文程度のボリュームです。
後からパッと見でも間違いに気付きやすく、ファクトチェックが容易な構造になっているのも良い点だといえるでしょう。
以前、製造業の中でも早期にChatGPTベースのシステム全社導入を決定したパナソニック コネクトに取材しました。その取材の中で、同社 執行役員 CIO IT・デジタル推進本部 マネージングダイレクターの河野昭彦氏は「(製造業では)これまでの業務別に特化したAIは導入後、正確性に問題があると、投資対効果が悪いなどとネガティブに捉えられがちだった」と指摘します。製造現場でのAI活用に対しては、こうした傾向が今なお根強い企業もあるかもしれません。
河野氏は「大規模言語モデル(LLM)によって自然言語でのAIアシスタントが普及すれば、AIに完全な正確性を求めるのではなく、現状のモデルをいかに使い倒すかを考える方向にシフトするだろう」と続けます。
「AIは間違うから使わない」ではなく、「間違いによるリスクを最小化する/許容する」した上でガンガン使い倒していく仕組みづくりの工夫が大事なのかも知れません。
(MONOist 池谷翼)
最後までお読みいただき、有り難うございました。 ☚ LINK
*** 皆さんからの ご意見・ご感想など 『
※ メール・BLOG の転送厳禁です!! よろしくお願いします。
コメントをお書きください