AI– category –
-
AI
whisper.cppで文字起こしをM2 Pro Mac miniとWindows/Ryzen AI Max+ 395/Vulkanでやって比較
30万のAI PC、Ryzen AI Max+ 395をせっかく購入したので、ローカルで色々やらせようとしている。 基本的にLLM目当てではあったけれど、どうせなら色々……と思ってwhisper.cppもやらせてみた。めっちゃ疲れた。 Macだと割とサクッと環境構築できるのだが、Windowsはなんだか色々としんどい。とりあえずLLMにはものすごく振り回された。どや顔で... -
AI
AIは皮肉をどこまでわかるのか
わかるときもあるしわからない時もある。 今回の皮肉はこれ オクで食洗機を買ってからというもの、最先端アルゴリズムによって数ヶ月にわたり食洗機をオススメされてきたのだが最近オクでトラックボールマウスを買ったところ、食洗機ではなくトラックボールマウスをオススメされるようになった この反映のスピードこそ2025年の最先端アルゴリ... -
AI
AIは革命だが、バブルは崩壊するし、崩壊はAIにとどまらない
なんか僕はAIについて否定的なことばかり記事に書いているから、AI否定派と思われるかもしれないのだが、ローカルLLMのためにPC買うくらいなので、別に否定派ではないし、ブツクサ言いつつOpenAIにサブスクみかじめ料も払っている。 さらに言えば、僕はAIというのは確かに革命だ、と思っている。AI革命について異存はない。 というのも、AIの... -
AI
「AIの無断学習は問題だ」という言い方が孕む危険
最近、AIが「無断で学習している」と批判されることが増えている。しかし、ここで無断という言葉を用いることは、当人の意図に反した結果をもたらす危険があるかもしれない。 無断学習がいけない、と言ってしまうと、「無断でなければ良いのか」つまり「許可を取れば良いのか」という話になる。これは肯定せざるを得ない。あるいは「取れるも... -
AI
ローカルLLMやりたくてRyzen AI Max+ 395 + 128GB RAM の GMKtec EVO-X2(30万円)を震えながらポチった
ムシャクシャしてポチった。今庶民がギリギリできるローカルLLMの限界を自分の手で試したかった。 欲しくなってしまった この記事を読んでいたらとてもほしくなったよね。 【西川和久の不定期コラム】Ryzen AI MaxのLLMとAI画像生成の性能は?OCuLinkでどちらも快適に♪「GMKtec EVO-X2」(後編) - PC Watch Stable Diffusionでお絵かきしたい... -
AI
AIも認める信頼できる情報源とは何か
AIは信頼できる情報源と言いたがるが、これは基本的に権威主義の言い換えとなる。少なくとも権威以外を信頼の根拠とした回答を見たことはない。 しかしながら、時の権威が信頼とイコールかといえば甚だ怪しい。これはまさに権威が編んだ歴史の教科書を読めばわかることのはずだ。しかし、実際には権威的な情報源であることが信頼の根拠とされ... -
AI
AIの出力から学ぶ、箇条書きをわかりづらくする100の方法
なんだかんだでClaudeを使い続けている今日この頃だが、Claudeで辟易とするのは箇条書きの過剰な多用だ。文章全体の9割が箇条書き、なんていうのも珍しくない。そしてこれは、非常にわかりづらい。 これについて不満に思っているのは僕だけではないようで、いつぞやClaudeに箇条書きをやめさせる方法みたいなツイートが流れてきた。この時の... -
AI
セルフホストDify のナレッジにAPIでドキュメントを追加する
確かにDify色々いじれるのは便利。 環境 以下を実行済みとし、環境も同一。 手順 環境変数の設定 以下を環境変数として設定する。ナレッジのドキュメントを選択すると、左下に「サービスAPI」があるので、そこを見るとURIがわかる。シークレットキーを発行することもできる。 DIFY_API_BASE: http://ベースURL:ポート/v1 DIFY_DATASET_ID: ド... -
AI
セルフホストでDify + ローカルLLM + RAG
今さらRAGやる。サクッと試すならDifyかなということで、またローカルLLMとローカルデータベースにこだわりを見せてやる。 環境 M2 Pro Mac mini 12コアCPU、19コアGPU RAM 32GB macOS Sonoma 14.7.7 LLM ollama 0.12.5 deepseek-r1:14b deepseek-r1:32b ollamaは使っていること前提。 ollamaを別マシンで動かす場合、Macの場合は以下を実行... -
AI
M2 Pro Mac mini 32GB RAM + SINQ + DeepSeek R1 32B Q4を使おうとする
AIモデルのメモリ使用量を60~70%も削減し安価で低性能なハードウェアでも動作するようにできるオープンソースの量子化手法「SINQ」をHuaweiが発表 - GIGAZINE この記事読んで「ええやん」と思った。要は量子化ビット数Q4で精度めっちゃあがったよ、ということらしい。タイトルのとおりの手順と検証メモ。SINQのチュートリアルを環境にあわ...