登録者に順次解放されているBingのAIチャットが話題となっています。
しかし、BingのAIチャットを何度も使っていると「Sorry, you’ve reached your daily limit to chat. Let’s pick up again tomorrow!」としてその日の利用ができなくなるようになりました。
Bingチャットに制限
BingのAIチャットは制限なく無料で使えていました。
しかしどうやら回数制限が付与されたようです。
#bing は、無料の人のチャット回数を制限するのかな。利用できなくなった>< pic.twitter.com/BJBDsb76MN
— 豊かさを学ぶエンジニアM (@masaru21) 2023年2月18日
再接続から解除されたBingチャットを触ってみて、
— ゆゆ (@K_tsuboyaki) 2023年2月18日
・会話が5往復したら6つめの質問をした時に新しいトピックにするように促される
・利用に上限がある
回数は数えてなかったけど、
Sorry, you’ve reached your daily limit to chat. Let’s pick up again tomorrow!
と表示されて何もできなくなった
「Sorry, you’ve reached your daily limit to chat. Let’s pick up again tomorrow!」とは「すいません。1日のチャットのリミットに達しました。明日また使ってください」という意味になります。
Bingの公式ブログによれば、Bingのチャットに制限がつけられたということです。
チャット体験は1日あたり50チャットターンまで。
1セッション(特定の話題に沿った回答)あたり5チャットターンに制限されます。
ターンとは、ユーザーの質問にBingが回答をした時点で1ターンとなります。
マイクロソフトによれば「大多数のユーザーが5ターン以内に探している答えを見つけ、50以上のメッセージを持つチャット会話はわずか1%」だそうです。
The new Bing & Edge – Updates to Chat | Bing Search Blog
なぜ制限?
ChatGPTでも最近はアクセス過多でキャパシティ不足とされています。現在サーバ増強などをしているようです。
アクセス過多・サーバ負荷回避のためか?....と思ったのですがそうではありません。
マイクロソフトでは「長時間のチャットセッションは "新しいBingの基礎となるチャットモデルを混乱させる "傾向がある」としています。
「15問以上の長時間のチャットセッション」を実施していくと、質問のたびにAIが最初に答えようとしたことを「忘れてしまう」ようになります。
結果として、予想もしない奇妙な回答をしてしまうようです。
実際Bingのチャットが不思議な回答をすることが多く報告されています。
Bingチャットが不正確であるというイメージが定着しかねませんし、回数制限によって回避することになったようです。
Microsoft limits Bing conversations to prevent disturbing chatbot responses | Engadget
(更新 2023/2/22)
その後回数制限は幾分緩和されてきているようです。
Microsoft is already undoing some of the limits it placed on Bing AI - The Verge
(更新 2023/3/15)
1セッションあたり15回、1日最大150回の回答まで緩和されています。