GPT-4のパラメータ数について、英語では8 x 220B(Bは10億)と書く人が多いのに対して、日本語では2200億 x 8と書く人が多いみたい。8 x 220Bだったら小学校の先生に「8パラメータのモデルを2200億個並べることになっちゃうよ」と叱られるのかな
posted at 11:34:57
200V‼️ twitter.com/denkojyoshi/st…
posted at 10:51:39
RT @esumii: GPT-4(有料のほうのChatGPTで使われてるやつ)がMITの試験問題を正しく解いたという論文が手続き的にも本質的内容面でも不正との指摘。 twitter.com/sauhaarda/stat…
posted at 09:33:47
Access Tokenを再生成したら書き込みはできるようになったみたい。ホームタイムラインを読むのは403 Forbiddenになる
posted at 09:03:25
API 2.0試し中
posted at 09:00:44
さて今日はこれだ twitter.com/miebunka/statu…
posted at 08:36:58
RT @kotatsurin: 20230623 大規模言語モデルは相関関係から“本当の”因果関係を推定できるのか? 40万個の問題で研究者らが調査:Innovative Tech - ITmedia NEWS www.itmedia.co.jp/news/articles/…
posted at 07:33:07