今ローカルLLMがアツいよな。DRAMをVRAMのように使えるようになってから革命きたわ

記事サムネイル
1 : 2026/04/09(木) 22:28:19.96 ID:WfjruuAV0

Radeon 780M搭載のAPUバカ売れするだろこれ
https://greta.5ch.net/test/read.cgi/poverty/

2 : 2026/04/09(木) 22:30:50.33 ID:Ia2e7TyB0
Unified Memoryええな
4 : 2026/04/09(木) 22:32:45.12 ID:uZY7uxe0d
メモリ圧縮1/6ってもう使えんの?
32 : 2026/04/09(木) 23:13:16.78 ID:4qMA1zIF0
>>4
windows+nvidia gpuで動くPyTorchで実装してる人は見た
他は知らん
ICLR 2026で論文発表だし活発になるのは今年後半じゃね
5 : 2026/04/09(木) 22:33:05.78 ID:nkDOB76V0
ryzenのAI MAXみたいなやつには頑張ってもらいたい
6 : 2026/04/09(木) 22:33:28.76 ID:ZEoExzWW0
サルにもわかるように解説して
28 : 2026/04/09(木) 23:05:56.19 ID:G8EI8/1l0
>>6
今までのAPUではCPUとGPUが同じメインメモリを使っていても物理的に共有できなくて同じデータを使えずにCPUとGPU間でコピーしなくてはならないとかロスが大きくそこで大きな時間がかかっていた。
ここでAMDのStrix Haloなどの新APUはユニファイドメモリというCPUとGPUで全く同じメモリ空間で同じデータを扱えるということができるようになって様々なロスがなくなったので圧倒的に速くなった
7 : 2026/04/09(木) 22:34:50.17 ID:qTcJI8PJ0
前から遅くなるけど普通のメモリ使えなかったのか?
8 : 2026/04/09(木) 22:35:38.81 ID:0GFtsNNZ0
CPUで動かすんじゃないの?
10 : 2026/04/09(木) 22:36:54.59 ID:llnQu/Vd0
3060でもあと5年戦えるってこと?!
72GB相当になるってこと?!
11 : 2026/04/09(木) 22:38:52.36 ID:7GepLOoVH
中国にアメリカ産グラボ盗まれたとかいう話どうなっんだww
12 : 2026/04/09(木) 22:41:26.18 ID:xBttmQRt0
それ遅くて話にならんやつ
14 : 2026/04/09(木) 22:44:34.63 ID:WBrHLC370
DRAM32GBしかないけど増設したほうがいいのか?
16 : 2026/04/09(木) 22:45:45.52 ID:59Ox/jL/0
GreenBoostだっけ?
でもあれLinuxでしか使えないんだよな
20 : 2026/04/09(木) 22:50:19.28 ID:gK7RmxGV0
それよりNPU使ってくれないかな
22 : 2026/04/09(木) 22:51:42.63 ID:WBrHLC370
>>20
AI用のコアなのにAIに使えないって変だよな
26 : 2026/04/09(木) 23:00:50.34 ID:1CW8rmYO0
>>20
簡単なものにはつかってるやろ
21 : 2026/04/09(木) 22:50:59.32 ID:ta7Wa+jfH
ワイもやる!
23 : 2026/04/09(木) 22:55:23.21 ID:HB1HvXTk0
ローカルで何すればいいの?
何が面白い?
何がおすすめ?
25 : 2026/04/09(木) 23:00:49.21 ID:Pnbd9eRZ0
おもちゃだからコレ
使えない
31 : 2026/04/09(木) 23:10:54.71 ID:7cPKvM5d0
ComfyUI程度の環境、ツールを(ChatGPTとかに相談しながらでも)使えるぐらいでないとローカルはオススメしない。
そこらへん頑張れそうの無いならサーバーサービス型のAI使った方が良さそう

コメント

タイトルとURLをコピーしました