2025年10月13日
GPT-5同等性能の日本語生成AI、リコーが開発(電波新聞デジタル) - Yahoo!ニュース
https://news.yahoo.co.jp/articles/6436a3546d755c8bb3d490d634303b578c3cce88
リコーが700億パラメータの日本語LLMをベースに、金融業務特化型モデル「Llama-3.3-Ricoh-70B-20251001」を開発。Metaの「Llama-3.3-70B-Instruct」を基に日本語性能を向上させた「Llama-3.3-Swallow-70B-v0.4」を使用し、独自のインストラクション・チューニングとモデルマージ技術を適用。
多段推論能力(Chain-of-Thought: CoT)を追加搭載。有価証券報告書などの公開データを学習し、金融業特有の専門用語や知識を習得。融資稟議業務などの専門的なタスクに対応可能。
日本語ベンチマーク(ELYZA-tasks-100、Japanese MT-Bench)でGPT-5と同等レベルのスコアを記録。金融ベンチマーク(japanese-lm-fin-harness)では、同規模の最先端オープンソースモデルを上回る性能を確認。
オンプレミス環境で導入可能。省コスト・省リソースを実現し、顧客企業の固有データを追加学習できるプライベートLLMとして、10月末から個別提供開始。
当ブログサイトはアフィリエイト広告、バナー広告を利用しています。
そんなサクッと作れるもんなん
25/10/12 22:44 ID:c3GkdRUC.net 6 :名無し
同等ならチャッピーでよくね
25/10/12 22:44 ID:LQatlrMG.net 24 :名無し
>>6
よくない
データが全てアメリカに取られるんやぞ?
25/10/12 22:53 ID:m3DwiYVi.net 7 :名無し
何がベースなんやろ
やっぱりdeepseekかな
25/10/12 22:45 ID:fz7wnYy7.net 8 :名無し
追加学習かー
0からは作れんのかいな
25/10/12 22:45 ID:LZ2QfgPO.net 11 :名無し
>リコーが開発・提供する700億パラメータの日本語LLMは、
>米Meta Platforms社が提供する「Llama-3.3-70B-Instruct」の日本語性能を向上させた
>「Llama-3.3-Swallow-70B-v0.4*4」をベースモデルとして開発されています
まーたこの類かww
25/10/12 22:46 ID:pos5DBnr.net 13 :名無し
>>11
悲しいなぁ
25/10/12 22:47 ID:LZ2QfgPO.net 19 :名無し
>>11
なんだメタのチャットGPTか
そこを借りてきて開発したって言うのは違うだろ
開発ってのはそこを開発してこそ
マックのハンバーガー買ってきて肉にカレーを掛けて挟みなおして
カレーハンバーガーを開発したって言うくらいちゃんちゃらおかしい
25/10/12 22:51 ID:X/IQf0Nf.net 15 :名無し
いいからGR安定供給しろ
25/10/12 22:48 ID:PnyQgi8x.net 16 :名無し
一から作ったみたいな記事やな
25/10/12 22:49 ID:uCn1m4qt.net 30 :名無し
だから何?って感じ
chatgptとcopilotで不便ないし
むしろAPI不便な国産なんてだれがつかうんや
25/10/12 22:57 ID:f3yi2R7D.net 34 :名無し
楽天も作ったとか言うてたけどあれ絶対OpenAIのやつだよな
25/10/12 23:06 ID:OCwBIDiJ.net 39 :名無し
Deepseekってどうなったんや
25/10/12 23:14 ID:3Ft2gM5H.net 42 :名無し
>>39
deepseekは研究界隈には結構大きな影響与えとるで
事前学習後のLLMを教師あり学習なしに、もしくは組み合わせて強化学習することでreasoning能力が上がるってのはその後もたくさん論文出てる
全く知らないから憶測だけど、リコーも推論能力上げたってなら有価証券報告書みたいな高品質なテキストデータでSFTしただけじゃなくて、何かしらの強化学習をしてるかもしれない
知らんけど
25/10/12 23:19 ID:4UOH2l55.net 48 :名無し
パクリを一切やっていない著作権クリアしてChatGPTと同等のAIが作れたら画期的やな
25/10/12 23:32 ID:cva4H3wN.net 51 :名無し
リコーってコピー機のイメージしかないわ
25/10/12 23:43 ID:tuQYnVH6.net 53 :名無し
「日本産LLMができましたw(蒸留やモデル借りてきただけ)」
みたいなのが最近多すぎんか?
しかも誰しもが使える開かれた生成AIですらない
25/10/12 23:57 ID:Hj2qrBs5.net 54 :名無し
ラピダスの半導体と一緒だね
1からではさすがに無理なんだよ
25/10/13 00:04 ID:l9kADbtp.net 18 :名無し 25/10/12 22:50 ID:LZ2QfgPO.net
編集元:「https://tomcat.2ch.sc/test/read.cgi/livegalileo/1760276600/」
コメント一覧 (12)
-
- 2025年10月13日 19:56
-
世の中の技術はほとんど0→1ではなく
派生系ということも知らんのだろうな -
0
ジョウ・ジャック・にしき2世
が
しました
-
- 2025年10月13日 20:13
-
発明が苦手なのは昔からだし
既存のモノを真似た上で改良するのが日本の特技 -
0
ジョウ・ジャック・にしき2世
が
しました
-
- 2025年10月13日 20:20
-
タイトルに"開発"なんて使わなきゃいい
>ほとんど派生系とか特技とかw
だから欧米特にドイツ人に毛嫌いされるんだよ -
0
ジョウ・ジャック・にしき2世
が
しました
-
- 2025年10月13日 20:37
-
まぁね
いうほどの技術でもないし -
0
ジョウ・ジャック・にしき2世
が
しました
-
- 2025年10月13日 20:38
-
何がマネだばか
ネオコグニトロンの日本だぞ -
0
ジョウ・ジャック・にしき2世
が
しました
-
- 2025年10月13日 20:41
-
日本語の処理能力が上がってるなら問題ないな。
日本企業のサポートを受けられるんだろ? -
0
ジョウ・ジャック・にしき2世
が
しました
-
- 2025年10月13日 21:01
- 自動車も日本が発明したものではないからな
-
0
ジョウ・ジャック・にしき2世
が
しました
-
- 2025年10月13日 21:08
- 一般人が使える日本製GPTを早く作ってくれ
-
0
ジョウ・ジャック・にしき2世
が
しました
-
- 2025年10月13日 23:18
-
模倣からでも権利侵害してなきゃ別に問題無い
0からとか言ってる僕ちんは社会でろよ -
0
ジョウ・ジャック・にしき2世
が
しました
-
- 2025年10月14日 05:05
-
開発環境は整ってるし、実際にはかなり簡単に作れるよ。
結局、学習データとパラメータごにょごにょするだけのしょうもないことしかここ数年してないから。大体、OpenAIのライバルだってみんな1年未満で匹敵するレベルになってるだろ。
そもそも、学習モデルとパラメータをブラックボックスで標準化全くしないせいでスコアの評価方法は完全にしんでるけどね。評価基準を学習してない?みたいなのばっからしい。 -
0
ジョウ・ジャック・にしき2世
が
しました
誹謗中傷な投稿内容には訴訟リスクが発生します。自己責任でお願いします。










さすがモノマネ屁理屈じゃぱん健在やね
ジョウ・ジャック・にしき2世
が
しました