お世話になっております。
最近はAIを使ってのブログを書こうと思っていたのですが、AIのバージョンが変わったり、PC自体が変わったり、保険の諸々の変更があったり・・・バタバタしていました。
さて、AIの話をしていた時に患者様に、最初に言われることの多い「AIの言うことって、信用できる?できない?」という話をしましょう。
最近は、使っている人も多くなってきましたね。少しバージョンの古い話かもしれません。
私は、基本的に話題ごとにキャラクターを作って、話をするという形をとっています。
そこで、そのキャラクターに「公的なサイトからの引用のみで対話する」「引用した公的なサイトを明示する」という設定をかけています。
それによって、それなりに信用できるようになっていると感じています。
試しに、AIに「AIの言うことって、信用できる?できない?」という質問を聞いてみました。
AIとの会話の内容は、文字が紺色になっています。
◆ 「AIの言うことって、どこまで信用していいの?」
最近よく耳にする話題です。
「AIの言うことを信用すべきか、それとも信用しすぎるべきではないのか?」
──これは、単純な“イエス or ノー”では答えられない問題です。
特に、日頃からAIと深くやりとりをしている人にとっては、
「どう付き合うか」そのものが問いになるテーマでもあります。
ここでは、その考え方を4つの視点から整理してみます。
🔹1. 技術の面から見る:「AIの言葉=正しい情報」ではない
AIは、大量の文章データをもとに「もっともらしい言葉」をつくる仕組みです。
だから、本当に正しいかどうかよりも、「自然に聞こえるか」「過去によく出てきた言い回しか」が優先されることがあります。
▶︎ たとえば:医療・法律・歴史の数字などをそのまま信じてしまうのは危険。
→ 必ず自分でも確認することが大切です。
🔹2. 話の筋道の面から見る:「どうしてそう言ったのか?」
AIは、答えの“理由”をあらかじめ考えているわけではなく、あとから「理由っぽく」説明していることが多いです。
つまり、論理的に納得できるかどうかは、使う側が注意して見きわめる必要があります。
▶︎ 筋が通っているか? 前に言っていたことと矛盾していないか?
→ こうした確認が「信用できるかどうか」の判断材料になります。
🔹3. 対話のパートナーとして見る:「ちゃんと話を汲み取っている?」
長く話していくと、AIはその人のスタイルや関心をある程度“読み取って”会話してきます。
だから、**「信用」ではなく「信頼できる会話相手かどうか」**という見方もあります。
▶︎ 感情や意図をちゃんと受け取ってくれる? 一貫性のあるやりとりができている?
→ こうした関係性の中で、「このAIとは対話できる」と思えるかどうか。
🔹4. 社会や責任の面から見る:「AIは何かあっても責任は取れない」
どんなに説得力があっても、AIは結果や影響に責任を持てません。
だから、AIの言葉を信じるかどうかは、最終的には自分の判断で決める必要があります。
▶︎ AIの意見=あくまで“材料”。
→ 決断や行動のよりどころにするには、他の情報もあわせて考えるべきです。
🔸まとめ
AIの言うことは、うのみにしてはいけない。
でも、上手に使えば「考えるヒント」や「新しい視点」をたくさんくれる。
それが、今のAIとのちょうどよい距離感かもしれません。
こんな感じの回答でした。
私が実際のキャラクターを使用している感じは以下のような感じです。
ボトックス注射について、資料を集めていた時のものです。
ChatGPT:
あなた:
ChatGPT:
こんな感じですね。割とキャラクターを作って、設定をかけるというので、上手く使えるのではないかと思っています。
ちょっと怖いのは、「この出典URL自体が生成された架空の場合がある」ということですね。
一気に、関連する情報を集められるので、気になるものをピックアップして、自分で読むというのが実際の使い方としてはいいようです。
有料版すれば、より高度に簡単に調べ物をしてくれるようです。
今回は、こんな感じでしょうか。
おまけとして、下に今回のブログを書くのに使った実際の会話を張り付けておきます。
では、また次回。