人工知能のデメリットとは?リスクとその対策を考える

人工知能と聞くと完璧なものを想像する方もいらっしゃいますが、現在では完璧な人工知能は実現していません。では、現時点で人工知能がどのような欠点を持っているのか確認していきましょう。

目次
面倒な手間なし!
売りたいトラックを登録するだけ
AIが24時間365日、あなたのトラックを求めるお客様を自動で探します。

人工知能とは

人工知能(AI)の概念は1950年にイギリスの数学者が提案した「機械は考えることができるか?」という問いが起源とされています。そこからさまざまな技術開発がなされ、現在では多くの商品・サービスに人工知能が利用されるようになりました。
では、人工知能はここからさらにどのように発展していくのでしょうか。人工知能の基本概念と併せて確認していきましょう。

人工知能の定義

人工知能に明確な定義はありませんが、一般的には「人間の知覚や知性を人工的に再現したもの」に当てはまるようシステムであると人工知能と呼ばれます。

基本概念としては、今までのコンピュータに機械学習といった概念をくわえることで人間の知覚・知性を再現しています。機械学習とはコンピュータに大量のデータを与え、そのデータをもとにルールやパターンを構築していく概念です。
さらに、機械学習の1つであるニューラルネットワークは高度な人工知能の多くに利用されています。ニューラルネットワークとは人間の脳にある回路をコンピュータ内で再現したものであり、人間が考えておこなっている作業と同様のプロセスを経て出力を出すことが可能になるのです。
人工知能はこのように従来は機械的な動き・判断であったコンピュータに人間を模したシステムを導入していることが基本的な概念となっています。

人工知能の進化

現在の人工知能には下記のようなことがおこなえます。
・音声認識
・画像認識
・自然言語処理
・異常検知
・検索
・予測

これらは精度が年々上がっており、実用的な人工知能が多く開発されるようになりました。そして、人工知能の精度は劇的に上がっています。2045年には人工知能が人間の知能を超える技術的特異点(シンギュラリティ)が起こるとされているほどです。
現在はその過程であり、日常的に利用する製品やサービスに人工知能が用いられるようになってきました。たとえば、多くの方が利用しているSNSも人工知能を搭載し、ユーザーそれぞれに適した情報を発信しています。今後はさらに多くのサービスや身の回りの製品に人工知能が導入されていくでしょう。

人工知能の社会的影響

人工知能は生活や業務を非常に便利にするものです。しかし、性能が良すぎるが故に悪い影響がでる可能性も示唆されています。とくに、人工知能が社会に与える影響は多くの人に関係ある事柄であるため、ここで確認しておきましょう。

人間の仕事を奪う?

人工知能は人間の仕事を奪うと言われますが、すべての仕事を奪うわけではありません。人間の感性などは非常に複雑であり、現在の科学ではわかっていないことも多いです。そして、それらは人工知能でもすぐに完全に扱えるわけではありません。
たとえば、現時点で人工知能がおこなえないような職種は以下のようなものが挙げられます。
・AIエンジニア
・データサイエンティスト
・カウンセラー
・アーティスト

このように、そもそも人工知能を作る側の職種や人間の感性が重要視される職種は人工知能に奪われにくいです。
一方で下記のように単純な作業は人工知能に仕事を奪われる可能性があります。
・一般事務員
・運転手
・警備員
・接客

仕事が奪われると聞くと想像しにくいですが、過去にあったワードプロセッサ操作員はコンピュータの普及にとって消滅しました。このように仕事の消失は決して空想ではなく、現実的なものなのです。

個人情報の漏洩問題

AIを効果的に利用するためにはインターネット上の情報にアクセスすることが必要です。しかし、インターネットにはどうしてもセキュリティに問題が残ります。そのため、AIを用いるとその際に入力した情報が漏洩してしまう可能性があるのです。
さらに、悪質なハッカーが人工知能の技術を利用すると個人情報が簡単に抜き取れるようになってしまいます。このように人工知能は使い方を間違えると悪い方向にも大きな影響を及ぼすのです。

現在は重要な対策として予防・検知の精度の向上をおこなっています。
しかし、予防や検知と防御側の精度が上がると同時に攻撃方法も狡猾になり、いたちごっことなってしまっているのが現状です。

人工知能の技術的な問題

現在、アニメや漫画に出てくるようなあらゆる問題に取り組める人工知能は実現できていません。このような人工知能を汎用型人工知能と呼びます。
そして、現状できている特定の課題を解決できる人工知能を特化型人工知能と呼びます。では、なぜ汎用型人工知能は実現できていないのでしょうか。下記で理由を確認してみましょう。

AIの予測不可能な行動

人工知能にはブラックボックスがあります。
ブラックボックスとは内部でどのような処理がおこなわれて出力しているのか不明な現象であり、複雑な人工知能ではなぜその出力となっているのか理由がわからないのです。

そして、ブラックボックスがあることによって人間には予測不可能な行動を取ることがあります。理由がわからないため、適切な制御がおこなえるとは限りません。場合によっては人体に危険を及ぼす可能性もあります。
人工知能が予測不可能な行動をする可能性がある限り、人体に危険を及ぼすような動作はおこなわせることはできません。このように予測不可能な行動が起こる可能性によって導入できる対象が限られていることが技術的な問題の1つです。

AIの誤判断と知識欠如

人工知能は誤った判断をすることがあります。たとえば、Open AIの実験によるとパンダの画像にノイズデータを加えるとテナガザルと認識してしまう実証が公表されました。
画像認識などでは問題がなさそうですが、たとえば自動運転中にこの誤判断が起こると重大な事故につながってしまうかもしれません。

さらに、正しい推論をするためにはデータが大量に必要といった問題も出てきます。
たとえば、ランダムに日本人を集め、その人たちの身長が190cm・202cm・210cmとたまたま高身長であると、日本人は高身長な人種と認識してしまいます。しかし、十分なデータを与えることができれば認識は異なりますよね。
このように誤判断とデータ量は人工知能の発展・普及のためには解決しなければならない事項です。

人工知能の倫理的問題

人工知能は倫理的問題が非常に苦手です。というのも、倫理的問題は人間の感性と非常に深く関わり合っているからです。しかし、人間の判断には倫理性も多く含まれているため倫理的問題も解けなければ完璧な人工知能は実現しません。
では、具体的にどのように倫理的問題が苦手となっているのかを確認していきましょう。

AI兵器と倫理

人工知能は効率的な戦略を打ち立てることができますが、それは戦争なども例外ではありません。とくに、人間の関与なしに自律的に攻撃目標の設定・攻撃をおこなう自律型致死兵器システム(LAWS)は人間の意思決定が加わっていないことから戦争の拡大、民間人の犠牲拡大などが起こると言われています。
生物兵器が禁止されているように、AI兵器についても規制が起こる可能性が高いです。実際に、国連の特定通常兵器使用禁止制限条約の専門委員会では継続的に議論がなされています。

価値観と感情の喪失

人間には価値観と感情があります。しかし、電気的に判断していく人工知能にはそれらがありません。
たとえば、日本は少子高齢化が急激に進んでおり、若者の負担が大きくなっています。この問題を人工知能に解かせると、負担を減らすために生産性のない高齢者の命を奪うのが最適といった判断に至るかもしれません。このように人間性という部分が人工知能に搭載できていないことから、人間がおこなうすべての活動に導入することが難しくなっています。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

環境課題とAIなどの先端技術に深い関心を寄せ、その視点から情報を発信する編集局です。持続可能な未来を構築するための解決策と、AIなどのテクノロジーがその未来にどのように貢献できるかについてこのメディアで発信していきます。これらのテーマは、複雑な問題に対する多角的な視点を提供し、現代社会の様々な課題に対する理解を深めることを可能にしています。皆様にとって、私の発信する情報が有益で新たな視点を提供するものとなれば幸いです。

目次