科学者はAIチャットロボットに、チャットロボットに人間らしい会話でチャットユーザーに警告するが、真の理解が欠如している。 Scientists warn AI chatbots like ChatGPT trick users with human-like conversations but lack true understanding.
ITPGTのような チャットロボットを 人間のような会話能力によって 勘違いするのは よくあることです American scientists highlight that humans often mistake AI chatbots like ChatGPT for intelligent beings due to their human-like conversational abilities. これら の AI システム は , 言語 の 規則 を 利用 し たり , 関連 し た 情報 を 提供 し たり する 点 で 優れ て い ます が , 多く の 場合 , 真実 な 情報 を 提供 する 面 で 失敗 し ます。 While these AI systems excel in using language rules and providing relevant information, they often fail in providing truthful information. チャットロボットの成功は、人類が対話の協調的な原理を形成し、 それに従う傾向にある。 哲学者のポール・グリセが解説した。 The success of these chatbots hinges on humans' tendency to anthropomorphize and follow the cooperative principles of conversation, as outlined by philosopher Paul Grice. こう し た システム は , 真 の 理解 や 思考 力 の 欠け た 単なる 言語 モデル に すぎ ない と いう こと を 覚え て おく よう 勧め られ て い ます。 Users are urged to remember that these systems are mere language models lacking genuine understanding or thought.