30万でRyzen AI Max+ 395 + 128GB RAM ならちょっとほしい

Ryzen AI Max+ 395とメモリ128GBのミニPC「A9 MEGA」がGEEKOMから登場 - PC Watch

ミニPCは見ていて楽しい。ミニPCには夢がある。

目次

化物PC

RTX4060よりはやーいとかいう噂もあったRyzen AI Max+ 395 + 128GB RAMという化物ミニPCだが、1900ドル、つまり30万円くらいとして出資を募っているらしい。

GEEKOMは、CPUにRyzen AI Max+ 395、メモリに128GBを搭載したミニPC「A9 MEGA」を、クラウドファンディングサイトKickstarter上で出資を募り始めた。入手するのに必要な出資額は1,899ドル(約28万円)

ちなみにAmazonだとGMKtecが96GB RAMのやつを26万くらいで売ってる。

価格設定は36万だが例によってクーポン商法なので。

95,000円クーポンってなんぞwこれ適用し忘れる人類も世の中にはいるのだろうか。

こっから+3万くらいで128GB RAMにできたら嬉しいよね。中華ミニPCの競争は凄まじい。ただ中華ミニPCに30万出せるのか問題はある。

ブランドでいくとAppleなのだが、M4 Mac Studioで128GB RAMにしようと思ったら、最小でも553,800円だって🥺

ちなみにこれは16コアCPU、40コアGPU、NE16コアの構成。GEEKOMの倍の値段と考えるとつらい感じはする。

ローカルLLMやStable Diffusionで

うちには既にRTX 4070があるので、推論だとStable DiffusionならSDXLモデルも扱えるしまぁまぁ不満はないんだけれど、LLMでデカいモデルを動かしたい、みたいなのだと、現状はやっぱり統合モデルが唯一解になるんだろうか。

M2 Pro Mac miniもLLMの推論ならそれなりに動いてくれるので、DeepSeekの13Bくらいのやつを使ったりしているんだけれど、正直阿呆なのは否めない。かなり限定的なタスクじゃないと厳しい現状はある。これが70Bや120Bだったら強いんだろうか?という期待もあるが、どうなんだろうなぁ。

まぁ手元にはRTX 4070があるので、マザボとVRAM揃えて……というのも考えられるんだけれど、やっぱり帯域幅がネックになる気がする。ちなみにこの分離のアーキテクチャでは下記記事がとても参考になって

OpenAIの「オープンなAI(gpt-oss-120b)」はGPUサーバじゃないと動かない?→約30万円の自作PCで動かしてみた - ITmedia AI+

gpt-oss-120bが8.4token/s出たらしい。コンテクスト長は8192だが、ローカルLLMだと現状簡潔なタスクやちょっとした会話くらいだろうな、というのはあるのでまぁよいのではないか。

PCIe 4.0 x16だと転送速度は理論値32GB/sでそれがネックなら、メモリ帯域幅が256GB/sのRyzen AI Max+ 395ならけっこう期待できるのかなぁ。

そんなわけで、買わないミニPCを見てほしいなぁと言い続けるだけの毎日である。

(追記)買った😄

この記事をいいなと思っていただけた方、よければ高評価・チャンネル登録……はないので、コメント・SNSでシェア・ブックマーク、RSSフィード登録を、よろしくお願い致します。

コメント

コメントする

目次