グローバル化と人権
日進月歩で進化する生成AIは、これからも驚異的なスピードで進歩していく。チャットGPT-3.5がリリースされてから約1年半の間にも多くの識者からの多様な見解が表明された。そうした中で生成AIは差別を始めとする人権侵害や個人情報の侵害、フェイク情報の氾濫、犯罪の手段、著作権の侵害、ビジネスの独占化等々、人類に深刻なリスクをもたらす恐れがあることが指摘された。しかしチャットGPTは人間のように思考しているわけではない。大規模言語モデルに基づいて言葉を並べているだけである。それでもあらゆるジャンルに渡って回答できる。これまでの一つのジャンルに特化したAIではなく多分野に渡って回答できるAIだ。生成AIは文章だけではなく音声や画像も作り出すことができる。現在の「GPT-4」を利用していると優秀な人間がその中に潜んでいるのではないかと思わせるぐらいである。上記に示したリスクは極一部だ。人間社会のあらゆる分野に大きく貢献する反面、あらゆる分野に大きなリスクをもたらす。
生成AIのリスクは多岐にわたるが、機能的には人間と同じような「コミュニケーション能力」や「判断能力」を持つと考えればあらゆることが可能になる。それは文章で質問したことを文章で回答するだけではない。文章の要約や作成途中の文章の完成、記事をはじめあらゆるジャンルの文章を書くこと、ウェブサイトの生成に必要なプログラムを書くこと、英語を始めとする多言語の文章を日本語に翻訳すること、英語文章を現代的に分かりやすく校正や修正すること、難しい検索を実行すること等を驚異的なスピードで行うことができる。最先端のGPTー4o(フォーオー)なら0.3秒で返答する。
2022年11月30日に公開された「GPT-3.5」は、AIの学習規模を示すパラメーターの数値が1,750億であった。それが昨年2023年3月10日に発表された「GPT-4」は非公開だが、5,000億~1兆パラメーターといわれている。最初に発表された「GPT-1」(2018年)は1.1億パラメーターであったことをふまえると学習規模は5,000倍以上である。今後、パラメーターが増大すればさらに性能はアップしていく。「GPT-3.5」では日本の医師国家試験に合格できなかったが、「GPT-4」では2018~2022年度の試験に合格できるレベルに達している。米国の司法試験には上位で合格できるレベルだ。
科学技術の進歩はいつの時代も社会にプラス面マイナス面の影響を与えるが、生成AIは桁違いに大きくなる。そのマイナス面が限界点を超えれば人類にとって取り返しのつかない事態を招く。
生成AIを生み出した情報工学の進歩は、私たちの意識や知能を限りなく拡大する。その最も具体的な事例が地球の裏側にいる人びとともリアルタイムで表情映像を見ながら会話することが可能になったことだ。今日のオンライン会議はその最たるものだ。今日ではテレポーテーションの技術を使えば同じ会議室にいるような設定で会議をすることも可能だ。それらを可能にした情報工学の最先端がチャットGPTに代表される生成AIである。人間の頭脳を工学的に模倣した「ディープニューラルネット」によって深層学習が可能になったことによる成果だ。コンピューターの驚異的な進化がなければ実現しなかった。パラメーターの増大はAIの高性能化を可能にし、生成AIを生み出した。
情報工学が機械工学と異なる点は、パスカルの言葉に代表される「人間は考える葦」であるという人間の本質に最も関連している技術であるということだ。この技術の最先端である生成AIの進化の先が十分に把握できていないことによって、多くの人びとが未来を危惧するのは当然のことだ。例えば人間的尊厳の基盤であり生活の中心ともいえる労働は、単純に肉体労働と頭脳労働等に分類されることがあるが、肉体と頭脳は分離できないものである。すべての労働は肉体と頭脳の両方を駆使することによってなされている。肉体労働の部分を軽減してきたのが機械工学の進歩であり、情報工学は肉体労働と頭脳労働の両方に貢献するために進化してきた。その人間の頭脳の代替や頭脳を超える技術が生成AIといえる。まさに先述したパスカルの言葉「人間は考える葦」であり、それが人の人たる所以ともいわれる思考を担っているようにみえるのが生成AIだ。機械工学の進歩とは大きく異なる。
もしこの生成AIが暴走すれば人類に多大な不幸をもたらすことは容易に想像できる。人類はその英知を結集して人類を何十回も殺すことができる核兵器まで開発した。自国の優位性を保つために短期的な思考で核兵器を開発したことを考えれば、生成AIの技術が邪悪な権力者等に悪用されることは十分に考えられる。
進化した動物は脳を破壊されると命が絶える。同様に進化したデジタル社会もその中枢の一箇所をやられると壊滅的な被害を受ける。その中枢と密接に関連しているのが生成AIだ。つまりその暴走は社会を破滅させる可能性を秘めている。もし生成AIの進化を担っているデータセンターが破壊されれば現在社会は未曾有の困難に遭遇する。
一方で生成AIは労働の在り方も大きく変える。例えば自動車運転手の仕事は肉体労働でもあり頭脳労働でもある。多くの人びとは頭脳労働とは考えていないが、自動車の運転も認知・判断・操作であり、その多くはドライバーの頭脳労働でもある。そのように考えていけば機械工学の進歩以上に情報工学の進歩が多くの仕事に影響を与えていく。今日の労働の多くは肉体的というよりもコミュニケーションと知能を使った判断が大部分を占めている。現場労働も多くの判断をしながら肉体を駆使して仕事をこなしていく。とりわけ今日のAIは人間の知能を驚異的なスピードで代替していく。高度な判断や知的労働も生成AIを始めとするAIが多くを代替する。
とりわけ「自動的意思決定」と言われる問題は極めて重大な問題だ。例えば企業が採用時に誰を採用するかをAIの判断だけで決定すれば人間の人生を大きく左右することになる。人びとの重要な権利利益に関わる決定や評価をビッグデータに基づくプロファイリングによってAIが行うことになれば多くの問題を惹起する。すでにそうしたことが技術的には可能な時代を迎えている。プロファイリングとは個人や集団のビッグデータに基づいて将来の行動等を予測する手法である。しかしビッグデータには個人のバイアスが含まれており、そうしたバイアスを含むAIの判断で差別や人権侵害が発生する可能性は存在する。重大な権利侵害につながる可能性も含んでいる。具体的事例として米国企業では男女差別的なAI評価が明らかになり開発を中止した企業もある。EUのGDPR(一般データ保護規則)は、重大な権利侵害をともなう自動的意思決定を規制しAIの自動的意思決定のみで判断することを規制する条文も含まれている。こうした問題が山積している。
自然言語の獲得は多くの人びとが考える以上にAIの進化と人びとに圧倒的な影響を与える。邪悪な人間が存在するということは、邪悪な生成AIも誕生していく可能性があるということだ。そのためにもマイナス面を抑制できる技術と社会的ルールが必要なのである。ゲノム(遺伝子)革命の進化にともなって生じる可能性があった倫理的・法的・社会的問題が生じないようにゲノム研究の進化と歩調を合わせるように進められたELSI(エルシー)研究と同様にAI研究の面でもこうした研究を深めていかなければ社会に重大な混乱をもたらす。このELSIにプラスしてAI研究の進化では、経済(Economic)や労働面(Labor)に対してもどのような影響が出るのかという研究の進化が焦眉の課題である。E(倫理的)L(法的)E(経済的)L(労働的)S(社会的)I(問題)研究が早急に求められている。ELELSI(エルエルシー)と呼称することもできる。すでに多くの研究者が着手し、多くの問題点を指摘している。国際機関や国家が公的資金を投入して進めていく必要がある。