広く一般公開されて誰でも使える状態になったため、それを用いて「Web記事やイラスト」「いわゆるフェイク画像・フェイク動画」を作って悪用するようなケースが多々見られるようになり。
それを問題とした開発元が無償公開をやめるというようなことが起きています。
とりあえず、事の善悪は置いておいて。
AIを使うためのリテラシーというか、背景というか、そういう観点でまだまだ議論の余地があるかな、と思う。
AIに対するいろんな立場があるだろうけど、それを使っている立場の人にはいくつかのタイプの人がいると思う。
おおざっぱにいうと「AIの出力を信用するか否か」という観点。
なんというのかな・・・アウトプットに対する人間とAIとの違いに、意識差を持っていないというのが近い、かな。
典型的な話題としては、このあたり:
『図書館員時代からの友人がChatGPTが出した書籍情報を元に「この世に存在しない本に対する問い合わせ」が来ているらしい「ChatGPTはすぐに嘘をつく…」』
ChatGPTが吐いたウソ書籍情報を元に「この世に存在しない本に対するILL (図書館間相互貸借) 請求」が送られた
これ、AIを使った人は「AIが指定した名称の本が必ずある」と信じているわけです。
でも実際には、そんな本はない。
もし、AIに与えたのと同じヒントを人間の司書に与えて探したなら、おそらくそんな「存在しない本」なんて提示しない。
もちろんこれには、AIが「本のことを知らない」という可能性が多々ある:あらゆる出版情報をAIに教え込ませたら、こんな「嘘」はつかなくなり、人間の司書よりも高い精度で本を見つけてくれるかもしれない。
では、このような「学習したAI」が、正しい答えを言っていると信用できるのか。
この「信用」を作る手段が、果てしなく難しいと思う。
ん〜・・・友瀬が何を懸念しているのかがわかりづらい、かな。
簡単に言うと、ニューラルネットワークを用いたAIは「人間のように考えてはいない」んです。
人間に作業をお願いして出てくるアウトプットと同じように扱うには、現時点ではまだリスクがあると思っている。
いわば「狂人に作業をお願いしている」ような状況なので、「正しい答えを求める」道具としては無理がある。
例えば、昔ながらのエキスパートシステム+データベース方式の司書システムであれば。
「人間のエキスパートが考えている、適切な手順で文書を探す」というかたちで開発されているんですね。
そのため、もしおかしな文書を提示するような『バグ』があれば、原因追及して修正することは可能なんです。
そういう「人間らしさ」が内包されているので、信用できる。
ですが、ニューラルネットワークAiでは。
AIは「どうやって学習するか」ということしか知らなくて、その学習とは「多数のインプット情報から、それに対して似たものを探す・作る」というものです。
もしおかしなアウトプットを提示するような『誤った学習』をしてしまった場合、それを正すのは非常に難しい。
なぜなら、学習した結果というものは「個々のニューロンに記録された重み情報」だけなので、
人間(AI開発者を含めて)が「どの部分の学習に問題がある」のかを判断することはできない。
つまり狙い撃ちで「正しいこと」を教える・学ぶ手段がないわけです。
もし新たなサンプルを学習させたとしても、それが本当に問題を解消できるかはわからない。
そういう意味では、多少間違っていてもそれを許容できる分野では、比較的実用は近いのかな、とは思う。
繰り替えずけど、「善悪」の問題は別、よ。
学習元の情報が「許されている範囲なのか」とか。
そういう元から学習した結果から「贋作」を作ってしまうことの是非とか。
元と区別つかないようなフェイクを作ることで、「誰かがやっている善事/悪事を捏造」するのはどうなのか。
これは多くの場合、プロパガンダや名誉棄損といった行為につながるし、ことによっては他者を犯罪者に仕立て上げることもできるわけで、偽造・偽証にあたるのではないか、とか。
上述の「信用できない」ことを考慮せずに、AIのアウトプットをそのまま論文とかWeb記事とかの「正しいことが期待される」ところに使用するなんてのは「詐欺と同じ」だと思うし。
ご意見などがあれば。