人間がAIに診断で勝てなくなる??

皆さまこんにちはこんばんは。ケモミミ本舗 たぬぬです。

2023年以降、 ChatGPT 始めとして 生成AI が急激に進化し、また急激に社会全般に浸透してきています。

私も2年前にAI の方が人間より診断では上手くできるのではないのかという話を書きました。
(↓下参照)

どうやらそれもかなり早い段階で達せられる可能性が出てきたようです。

現時点の「AI」 はSFで語られるようないわゆる「人工知能」というよりも、「超高度な検索機能」と「検索結果の再構築化」を得意とするもののようです。
なので、学習対象が広くなればなるほどより「正確」に「正答」を導き出せるのはある意味当然、となるわけです。
(そのうち人間がまだ優位と考えている「経験」と「勘」「ひらめき」なんかも学習されちゃったりして。ただ、その「検索」に膨大な電力を消費するとかなんとか…まぁ確かに“検索を大量にこなす”と考えると、至極当然にも思えますけどね)

専門的な論文はさすがにばら撒かれるまではいってないとは思うのですが、相当量の「医学的な」情報は溢れんばかりにあるワケでして、素人であっても検索すれば簡単にアクセスできてしまう環境は整ってしまっています。

そもそも「学習機能」は当然機械の方が得意なので、「知識量」は圧倒的にAIが持っています。
しかもAIの急速な「進化」によって症状や検査結果から導き出される「診断の正確性」も相当な精度になってきてるようです。
(学習素材があればあるほど「有能」になるのは人間と同じですね(^^;))

もう既に複雑な鑑別診断を伴うような診断であっても既にAIは人を超えているかもしれませんね。

まぁだからと言って人間の医師が不要になるかと言われればもちろん違うワケでして、逆に、AIが出してきた様々な「回答」を適切に取捨選択して適切に患者に適応させた上で処置できるのは人間の医師以外にはできないことだと思います。

まだ人間が必要とされる場面がありそうでよかった…

生成AIをうまく利用して医療がもっと発展していくといいですね。

(日経メディカル「生成AIの普及で「医師は命を扱う通訳へ」では生成AIで「AI患者」を作成して患者との対話スキルや鑑別診断スキル向上が行われるプロジェクトが紹介されていました。すごいですね)


さて、そんなふうにAIが有効活用できる可能性が高まってきている一方で、「AI汚染」とも言える現象も出てきています。

(ここからは余談になります)

AIが「学習していた」期間が終了し、AIによるアウトプットが大量に出始めることにより、大量の「間違えた情報」も流出し始めています。

もともと正確な情報ばかりを学習させているわけでもなさそうですしね。

情報の真贋はAIにとって問題ではなく(というかAIには判断できませんもんね)、検索先が「それであった」だけなのですから。

間違えた情報が繰り返しアウトプットされていくと、間違えた情報自体が積み重なることになり、それが「情報の実績」となって悪循環が繰り返されるわけですね。

なんと最近では「存在しない論文」なんてのも発見されたりしています。
しかもこれ、実在の研究者等の氏名で偽造されてるらしく、悪質性が高いです。

レポートを書くにあたって検索をたくさんする必要の出てくる学生さんたちが多分このあたりをより実感されているのではないでしょうか。
検索したものをレポートに書いたら実はそんな事実はなかったと後で判明して先生に指導される、とか。
(まぁこういうことが起こらないためにも「正しい知識を教えてくれる」機関=大学等の必要性がますます大きくなるワケですが)

論文やレポート作成に「ネットでの情報収集をすることは危険」な時代になってきつつあるようにも思えますね。

人類にAIを正しく使いこなせる未来はちゃんと来るんでしょうかね??
なんとなく不安になります…

おすすめの記事