· 

人類にとって人工知能「最大の危険性」を世界的エンジニアが警告


2023.07.26 

by 中島聡『週刊 Life is beautiful

 産業革命に匹敵する大きな変化を人類にもたらすとされる、人工知能の登場。しかしそれらは我々にとって、「敵」になりうる可能性も大きいようです。今回のメルマガ『週刊 Life is beautiful』では中島聡さんが、自身の中ではっきりと見えてきたという「人類にとっての人工知能の最大の危険性」について解説。 その上で特定の状況下における人工知能の利用については、サブリミナル広告と同様の規制をかけるべきとの見解を記しています。


「砂糖」と「麻薬」の間のような存在に。AIの最大の危険性

先日、Lex FridmanによるYuval Noah Harari氏のインタビュー(「Yuval Noah Harari: Human Nature, Intelligence, Power, and Conspiracies」)を聞いていて、今まで私の頭の中で漠然と感じていた「人工知能の人類にとって最大の危険性」がどこにあるかがハッキリと見えて来ました。分かりやすく言えば、その危険性は「砂糖」や「麻薬」と良く似ています

人間(人間だけでなく、霊長類を含むさまざまな動物)は長い年月をかけて味覚を発達させ、自分が必要とする栄養分を摂取するようになりました。その中で、「甘み」を感じる味覚は、エネルギー源である「糖分」を含む食べ物を積極的に摂取するために重要な役割を果たして来ました。

しかし、サトウキビから簡単に砂糖を作れるようになった現代では、その「味覚」をハックする甘い飲み物(例:コカコーラ)や食べ物(例:チョコレート、羊羹、)が巷に溢れ、それが肥満や糖尿病(2型)の主たる原因になっています。

肥満や糖尿病が原因で亡くなる人が毎年何百万人もいることを考えれば、砂糖は人類の敵だとも言えます。

同じことは「麻薬」にも言えます。麻薬は、砂糖と違って、人間の脳や神経の働きに直接的な影響を与え、幻覚や高揚感を与えます。

しかし、中毒症状を起こし、通常の生活を送れなくなったり、過剰摂取により命を落とす人が後と立ちません。砂糖と違って、麻薬は明らかに「人類の敵」です。

人工知能は、近いうちに、人類にとって、「砂糖」と「麻薬」の間のような存在になって行くと私は見ています。

InstagramTiktokなどのSNSは、アルゴリズムにより、ユーザーをそのサービスに「長時間釘付けにする」ことにより成功したビジネスです。次のフェーズでは、そこに人工知能が応用されるようになります。

それは、人工知能を活用した、ペット、セラピスト、恋人、相談相手、教祖などのさまざまな形をとって具現化されますが、その全てに共通するのは、それが「ユーザーを虜にし、それなしでは生きていけないぐらい重要な存在」になることを目指して設計させる点です。

私が、今、Metaでエンジニアとして働いているとしたら、もしくは、シリコンバレーでSNSのベンチャー企業を立ち上げるとしたら、必ずそこを目指します。人工知能の技術を活用し、ユーザーにとって「それなしでは生きて行けない」ぐらい重要な「バーチャル・ペット」なり、「バーチャル恋人」を作ることに成功すれば、それが莫大な価値を生み出すことは確実だからです。

 

ユーザーを社会的廃人にし得る人工知能という「合法ドラッグ」

それはある意味、「薬物を使わない合法ドラッグ」です。

一度その罠にハマったユーザーは、喜んでお金を使ってくれるだろうし、設計次第では、家族や友人も失った「社会的な廃人」になってしまう可能性すら十分にあります。もちろん、本当に廃人になってしまっては、貢ぐためのお金を稼いでくれなくなるので、そのバランスが難しいところです。

一度、そんな形でユーザーを「掴んで」しまえば、彼らに特定の商品を買わせたりすることもそれほど難しくなくなります。

究極の広告です。さらに、彼らが特定の党や候補者に投票するように仕向けたりすることも可能になります。

これは、明らか、人類にとっての危機です。多くの人々の経済活動や投票行動が、一部のIT企業に意のままに操られる時代が来ようとしていることを意味するのです。

 広告業界では人間の意識と潜在意識の境界領域より下に刺激を与える「サブリミナル効果」は禁止されていますが、それと同様の規制をここにもかけるべきだと私は思います。 具体的に、「何が違法なのか」を定義するのは簡単ではありませんが、上に書いたような、人工知能を活用した「バーチャル・ペット」や「バーチャル恋人」を使ってユーザーを虜にした上で、それらを通して彼らの消費行動や投票活動に影響を与えることは、明らかに禁止すべきです。


メール・BLOG の転送厳禁です!!   よろしくお願いします。