生成AIの「脱CUDA」が進んだ結果、GeForce RTX 4090が「MacBook Pro(iGPUのノートパソコン)」に負けてしまう😨

1 : 2025/11/25(火) 14:47:23.68 ID:mHdRXlaS0

https://pc.watch.impress.co.jp/docs/column/nishikawa/2062248.html

レス1番のリンク先のサムネイル画像
2 : 2025/11/25(火) 14:47:37.67 ID:mHdRXlaS0
gpt-oss-120b
GeForce RTX 4090 24GB 起動すらせず
GeForce RTX 3090 + GeForce RTX 4090 48GB = 120.47tok/s
MacBook Pro M4 Max 128GB = 70tok/s
https://youtu.be/tu1M7vqH28Q
3 : 2025/11/25(火) 14:48:01.23 ID:mHdRXlaS0
96W電源のノートパソコン
4 : 2025/11/25(火) 14:48:34.17 ID:mHdRXlaS0
脱CUDAが深刻
5 : 2025/11/25(火) 14:48:52.43 ID:mHdRXlaS0
CUDA-Cでプログラミングしているやつ絶滅した
6 : 2025/11/25(火) 14:49:03.63 ID:PbKzwbPP0
m6でたら終わる
7 : 2025/11/25(火) 14:49:14.00 ID:HQqPYvMuH
GPTですら満足いかないのにそれ以下のローカルをやる気にはならんべ
8 : 2025/11/25(火) 14:49:49.21 ID:y0JcC7hZH
え?今ってCUDAじゃなくても良いの?
12 : 2025/11/25(火) 14:51:28.21 ID:7TNLW/m3d
>>8
そのせいでAMDも急激に追い上げてる
27 : 2025/11/25(火) 14:57:28.10 ID:0xpJ3v1Z0
>>12
全く追い上げてない
34 : 2025/11/25(火) 15:04:59.91 ID:mHdRXlaS0
>>27
AMD、OpenAIに6GW規模のGPU提供へ 「NVIDIA一強」を崩せるか
https://eetimes.itmedia.co.jp/ee/articles/2510/14/news038.html
45 : 2025/11/25(火) 15:13:16.85 ID:0xpJ3v1Z0
>>34
amdとかのgpu使ってるのは推論だけで、
肝心のモデル学習はnvidia一択なんだわ
9 : 2025/11/25(火) 14:50:00.13 ID:mHO0ZH/40
ゲフォはCUDAなければ雑魚なのか
10 : 2025/11/25(火) 14:50:34.01 ID:7TNLW/m3d
猫も杓子もPython全盛の時代だし
CUDA-C言語で組んでるやついなくなったからな
11 : 2025/11/25(火) 14:51:05.00 ID:paovs9/o0
linux同様にAIの起動とベンチとって満足してるの?
14 : 2025/11/25(火) 14:52:18.04 ID:t0eUqwFw0
tok/sってなんぞ?
tiKtok投稿数/秒か?
16 : 2025/11/25(火) 14:52:43.64 ID:V5yID2vP0
>>14
そうだよ
15 : 2025/11/25(火) 14:52:34.47 ID:72tH/4gA0
VRAMに入らないだけでRAMに移せばMACぐらいの速度でるんじゃねえの?
GPT-OSSってMOEだから全部VRAMに入れなくてもよかったはず
17 : 2025/11/25(火) 14:53:41.80 ID:RvqBPiJK0
なお画像動画生成はぼろ負け
22 : 2025/11/25(火) 14:55:29.21 ID:72tH/4gA0
>>17
画像はもうローカルも微妙なイメージある
動画はエ口に関してはまだローカルに分がある感じはするけど
18 : 2025/11/25(火) 14:53:47.53 ID:tUecXk2r0
みんなMac mini数珠繋ぎしてる
19 : 2025/11/25(火) 14:54:39.63 ID:URlvZsEk0
VRAMじゃなくLPDDRでもいいやんけ
26 : 2025/11/25(火) 14:56:55.82 ID:7TNLW/m3d
>>19
中国がLPDDR5Xを買い占めしているせいで
日本のメモリ価格が高騰しているんだぞ
28 : 2025/11/25(火) 14:58:09.71 ID:wa5YwH880
>>26
ジャップには使い熟せないから別にいいじゃん
20 : 2025/11/25(火) 14:55:06.87 ID:bmHcgnyH0
しかしAmuseはNSFWに厳しい
23 : 2025/11/25(火) 14:55:30.52 ID:wa5YwH880
3090+4090ってなんだよアンバランス過ぎるだろ
そっちの方が早い結果になってるけど
24 : 2025/11/25(火) 14:56:10.86 ID:W4fxSAFc0
こういう話基本的にメモリの容量だけの問題でとっとと大容量のメモリで出せってだけの話なんだよな
25 : 2025/11/25(火) 14:56:43.28 ID:DsHPFY7t0
エ口動画生成もいける?
29 : 2025/11/25(火) 14:59:15.93 ID:d4Op3gXkM
4090のメモリ改造 48GBにするの
30 : 2025/11/25(火) 15:01:06.41 ID:tMFmb17B0
Macって高価なVRAMじゃなくてメインメモリでいけるんか?
36 : 2025/11/25(火) 15:05:40.08 ID:TPLi2mP/0
>>30
統合メモリだから下手なVRAMよりアクセス速度速いんじゃない
37 : 2025/11/25(火) 15:09:09.49 ID:EO9bq5dmd
>>30
高価なVRAMみたいのをCPUチップに内蔵している
だからメモリ増設できない
31 : 2025/11/25(火) 15:02:02.15 ID:S+Cb7E4z0
今性能良いチップよりRAMの方が重要だから
32 : 2025/11/25(火) 15:02:04.20 ID:RgalqFXj0
嫌儲的には中古3090 24GB 2枚がおすすめなのかね? 電気代がやばそうよな
33 : 2025/11/25(火) 15:02:36.98 ID:QqjbQ2a60
GPUはゲームが動けばいいよ
AIやりたきゃ専用チップ作れ
35 : 2025/11/25(火) 15:05:22.70 ID:UlqKxuis0
LPDDRつこえばVRAMになるからね
MacじゃなくともAMDのRyzenAI max+395では最大96GBまで割り当て可能
LLMにおいては5090でもこいつには勝てん
43 : 2025/11/25(火) 15:10:54.80 ID:tMFmb17B0
>>35
それメモリとの距離とスピード問題にならんの?
44 : 2025/11/25(火) 15:12:52.92 ID:UlqKxuis0
>>43
AIいうても種類があってな
VRAM量が正義の分野もある
だからいくら速くても足りないと論外
48 : 2025/11/25(火) 15:14:14.53 ID:EO9bq5dmd
>>43
Ryzen AIは「LPDDR5Xの最大8チャンネル」で解決している
当然HBMには負けるが、安いLPDDR5Xを並列に繋げる方式でそこそこ善戦している
38 : 2025/11/25(火) 15:09:32.17 ID:EO9bq5dmd
最後に勝つのはAMD
39 : 2025/11/25(火) 15:09:59.50 ID:EO9bq5dmd
もうすぐRyzen AIの奪い合いになる
40 : 2025/11/25(火) 15:10:16.15 ID:EO9bq5dmd
メモリ価格高騰はその前触れ
41 : 2025/11/25(火) 15:10:26.31 ID:H5zogmYp0
Appleシリコン強すぎ
42 : 2025/11/25(火) 15:10:54.03 ID:EO9bq5dmd
今のうちにRyzen AI 128GBマシン買い占めとけ
46 : 2025/11/25(火) 15:14:04.23 ID:RR2WvIok0
脱CUDAは去年から研究されまくっててそろそろ実を結ぶな
Geminiも今年から脱CUDAフルパワーだし
47 : 2025/11/25(火) 15:14:09.08 ID:Iq7XcOnE0
メモリの高騰がヤバすぎる
49 : 2025/11/25(火) 15:14:26.45 ID:ILANouCt0
エンビディアはゲーム専門に戻ろう☺
我々は革ジャンの味方だよ🤗
51 : 2025/11/25(火) 15:15:53.16 ID:Za58yGr10
>>49
いまや利益の15%しかゲーム分野の利益はない…
50 : 2025/11/25(火) 15:14:56.32 ID:Ugsgx74X0
そろそろM5出そう?
52 : 2025/11/25(火) 15:16:19.88 ID:WPjN/eXr0
バラクーダでもいいの?

コメント

タイトルとURLをコピーしました