- 1 : 2025/11/25(火) 14:47:23.68 ID:mHdRXlaS0
https://pc.watch.impress.co.jp/docs/column/nishikawa/2062248.html
- 2 : 2025/11/25(火) 14:47:37.67 ID:mHdRXlaS0
- gpt-oss-120b
GeForce RTX 4090 24GB 起動すらせず
GeForce RTX 3090 + GeForce RTX 4090 48GB = 120.47tok/s
MacBook Pro M4 Max 128GB = 70tok/s
https://youtu.be/tu1M7vqH28Q - 3 : 2025/11/25(火) 14:48:01.23 ID:mHdRXlaS0
- 96W電源のノートパソコン
- 4 : 2025/11/25(火) 14:48:34.17 ID:mHdRXlaS0
- 脱CUDAが深刻
- 5 : 2025/11/25(火) 14:48:52.43 ID:mHdRXlaS0
- CUDA-Cでプログラミングしているやつ絶滅した
- 6 : 2025/11/25(火) 14:49:03.63 ID:PbKzwbPP0
- m6でたら終わる
- 7 : 2025/11/25(火) 14:49:14.00 ID:HQqPYvMuH
- GPTですら満足いかないのにそれ以下のローカルをやる気にはならんべ
- 8 : 2025/11/25(火) 14:49:49.21 ID:y0JcC7hZH
- え?今ってCUDAじゃなくても良いの?
- 12 : 2025/11/25(火) 14:51:28.21 ID:7TNLW/m3d
- >>8
そのせいでAMDも急激に追い上げてる - 27 : 2025/11/25(火) 14:57:28.10 ID:0xpJ3v1Z0
- >>12
全く追い上げてない - 34 : 2025/11/25(火) 15:04:59.91 ID:mHdRXlaS0
- >>27
AMD、OpenAIに6GW規模のGPU提供へ 「NVIDIA一強」を崩せるか
https://eetimes.itmedia.co.jp/ee/articles/2510/14/news038.html - 45 : 2025/11/25(火) 15:13:16.85 ID:0xpJ3v1Z0
- >>34
amdとかのgpu使ってるのは推論だけで、
肝心のモデル学習はnvidia一択なんだわ - 9 : 2025/11/25(火) 14:50:00.13 ID:mHO0ZH/40
- ゲフォはCUDAなければ雑魚なのか
- 10 : 2025/11/25(火) 14:50:34.01 ID:7TNLW/m3d
- 猫も杓子もPython全盛の時代だし
CUDA-C言語で組んでるやついなくなったからな - 11 : 2025/11/25(火) 14:51:05.00 ID:paovs9/o0
- linux同様にAIの起動とベンチとって満足してるの?
- 14 : 2025/11/25(火) 14:52:18.04 ID:t0eUqwFw0
- tok/sってなんぞ?
tiKtok投稿数/秒か? - 16 : 2025/11/25(火) 14:52:43.64 ID:V5yID2vP0
- >>14
そうだよ - 15 : 2025/11/25(火) 14:52:34.47 ID:72tH/4gA0
- VRAMに入らないだけでRAMに移せばMACぐらいの速度でるんじゃねえの?
GPT-OSSってMOEだから全部VRAMに入れなくてもよかったはず - 17 : 2025/11/25(火) 14:53:41.80 ID:RvqBPiJK0
- なお画像動画生成はぼろ負け
- 22 : 2025/11/25(火) 14:55:29.21 ID:72tH/4gA0
- >>17
画像はもうローカルも微妙なイメージある
動画はエ口に関してはまだローカルに分がある感じはするけど - 18 : 2025/11/25(火) 14:53:47.53 ID:tUecXk2r0
- みんなMac mini数珠繋ぎしてる
- 19 : 2025/11/25(火) 14:54:39.63 ID:URlvZsEk0
- VRAMじゃなくLPDDRでもいいやんけ
- 26 : 2025/11/25(火) 14:56:55.82 ID:7TNLW/m3d
- >>19
中国がLPDDR5Xを買い占めしているせいで
日本のメモリ価格が高騰しているんだぞ - 28 : 2025/11/25(火) 14:58:09.71 ID:wa5YwH880
- >>26
ジャップには使い熟せないから別にいいじゃん - 20 : 2025/11/25(火) 14:55:06.87 ID:bmHcgnyH0
- しかしAmuseはNSFWに厳しい
- 23 : 2025/11/25(火) 14:55:30.52 ID:wa5YwH880
- 3090+4090ってなんだよアンバランス過ぎるだろ
そっちの方が早い結果になってるけど - 24 : 2025/11/25(火) 14:56:10.86 ID:W4fxSAFc0
- こういう話基本的にメモリの容量だけの問題でとっとと大容量のメモリで出せってだけの話なんだよな
- 25 : 2025/11/25(火) 14:56:43.28 ID:DsHPFY7t0
- エ口動画生成もいける?
- 29 : 2025/11/25(火) 14:59:15.93 ID:d4Op3gXkM
- 4090のメモリ改造 48GBにするの
- 30 : 2025/11/25(火) 15:01:06.41 ID:tMFmb17B0
- Macって高価なVRAMじゃなくてメインメモリでいけるんか?
- 36 : 2025/11/25(火) 15:05:40.08 ID:TPLi2mP/0
- >>30
統合メモリだから下手なVRAMよりアクセス速度速いんじゃない - 37 : 2025/11/25(火) 15:09:09.49 ID:EO9bq5dmd
- >>30
高価なVRAMみたいのをCPUチップに内蔵している
だからメモリ増設できない - 31 : 2025/11/25(火) 15:02:02.15 ID:S+Cb7E4z0
- 今性能良いチップよりRAMの方が重要だから
- 32 : 2025/11/25(火) 15:02:04.20 ID:RgalqFXj0
- 嫌儲的には中古3090 24GB 2枚がおすすめなのかね? 電気代がやばそうよな
- 33 : 2025/11/25(火) 15:02:36.98 ID:QqjbQ2a60
- GPUはゲームが動けばいいよ
AIやりたきゃ専用チップ作れ - 35 : 2025/11/25(火) 15:05:22.70 ID:UlqKxuis0
- LPDDRつこえばVRAMになるからね
MacじゃなくともAMDのRyzenAI max+395では最大96GBまで割り当て可能
LLMにおいては5090でもこいつには勝てん - 43 : 2025/11/25(火) 15:10:54.80 ID:tMFmb17B0
- >>35
それメモリとの距離とスピード問題にならんの? - 44 : 2025/11/25(火) 15:12:52.92 ID:UlqKxuis0
- >>43
AIいうても種類があってな
VRAM量が正義の分野もある
だからいくら速くても足りないと論外 - 48 : 2025/11/25(火) 15:14:14.53 ID:EO9bq5dmd
- >>43
Ryzen AIは「LPDDR5Xの最大8チャンネル」で解決している
当然HBMには負けるが、安いLPDDR5Xを並列に繋げる方式でそこそこ善戦している - 38 : 2025/11/25(火) 15:09:32.17 ID:EO9bq5dmd
- 最後に勝つのはAMD
- 39 : 2025/11/25(火) 15:09:59.50 ID:EO9bq5dmd
- もうすぐRyzen AIの奪い合いになる
- 40 : 2025/11/25(火) 15:10:16.15 ID:EO9bq5dmd
- メモリ価格高騰はその前触れ
- 41 : 2025/11/25(火) 15:10:26.31 ID:H5zogmYp0
- Appleシリコン強すぎ
- 42 : 2025/11/25(火) 15:10:54.03 ID:EO9bq5dmd
- 今のうちにRyzen AI 128GBマシン買い占めとけ
- 46 : 2025/11/25(火) 15:14:04.23 ID:RR2WvIok0
- 脱CUDAは去年から研究されまくっててそろそろ実を結ぶな
Geminiも今年から脱CUDAフルパワーだし - 47 : 2025/11/25(火) 15:14:09.08 ID:Iq7XcOnE0
- メモリの高騰がヤバすぎる
- 49 : 2025/11/25(火) 15:14:26.45 ID:ILANouCt0
- エンビディアはゲーム専門に戻ろう☺
我々は革ジャンの味方だよ🤗 - 51 : 2025/11/25(火) 15:15:53.16 ID:Za58yGr10
- >>49
いまや利益の15%しかゲーム分野の利益はない… - 50 : 2025/11/25(火) 15:14:56.32 ID:Ugsgx74X0
- そろそろM5出そう?
- 52 : 2025/11/25(火) 15:16:19.88 ID:WPjN/eXr0
- バラクーダでもいいの?
生成AIの「脱CUDA」が進んだ結果、GeForce RTX 4090が「MacBook Pro(iGPUのノートパソコン)」に負けてしまう😨
嫌儲

コメント