ブログ
-
自宅サーバ/VPS/クラウド
Gitea on Macのサインアップ(登録)を禁止する
大した内容ではない。GiteaをずっとLAN内で運用していたが、やはりそれだと不便なので外部公開の必要を感じた。とはいえお一人様なのでサインアップはさせたくない。ので、設定するだけ。 環境 M2 Pro Mac mini, Intel Mac mini 2018 macOS 14.7.7 (Sonoma) gitea 1.24.5 (via brew) brew services start giteaで起動 手順 まず現状を確認す... -
AI
ローカルLLMやりたくてRyzen AI Max+ 395 + 128GB RAM の GMKtec EVO-X2(30万円)を震えながらポチった
ムシャクシャしてポチった。今庶民がギリギリできるローカルLLMの限界を自分の手で試したかった。 欲しくなってしまった この記事を読んでいたらとてもほしくなったよね。 【西川和久の不定期コラム】Ryzen AI MaxのLLMとAI画像生成の性能は?OCuLinkでどちらも快適に♪「GMKtec EVO-X2」(後編) - PC Watch Stable Diffusionでお絵かきしたい... -
脱Google/ビッグテック/クラウド
2025年でも独自ドメインを取得してホームページを作ろう
独自ドメインを持っておくとインターネット上における活動の自由が大幅に上がる。もはやプラットフォームのサービスに乗っかるのが当たり前という感じかもしれないのだが、独自ドメインさえあれば、その流れに抗って、自分を中心にして活動することができる。 そこには不透明な検閲によるシャドウバンもアカウント凍結もない。自分だけのネッ... -
脱Google/ビッグテック/クラウド
脱クラウドとは何か
最近、サイトのビッグテーマとして、脱クラウドを掲げセルフホスト的な記事を書いていこうかなと思っている。ってか脱SaaSというほうがいいかもしれんね。 なんにせよ、そもそも脱クラウドとは何か?という問題があるかなぁ、とは思った。たとえば僕はガンガンCloudflare Tunnelを使っているし、またそれを前提とした構成を書いていくことに... -
AI
AIも認める信頼できる情報源とは何か
AIは信頼できる情報源と言いたがるが、これは基本的に権威主義の言い換えとなる。少なくとも権威以外を信頼の根拠とした回答を見たことはない。 しかしながら、時の権威が信頼とイコールかといえば甚だ怪しい。これはまさに権威が編んだ歴史の教科書を読めばわかることのはずだ。しかし、実際には権威的な情報源であることが信頼の根拠とされ... -
AI
AIの出力から学ぶ、箇条書きをわかりづらくする100の方法
なんだかんだでClaudeを使い続けている今日この頃だが、Claudeで辟易とするのは箇条書きの過剰な多用だ。文章全体の9割が箇条書き、なんていうのも珍しくない。そしてこれは、非常にわかりづらい。 これについて不満に思っているのは僕だけではないようで、いつぞやClaudeに箇条書きをやめさせる方法みたいなツイートが流れてきた。この時の... -
雑記
自由ソフトウェアと互換性の戦争と実質貴族
TLで「自由ソフトウェア」なるものが流れてきた。 「『自由ソフトウェア』の開発にDiscordを使わないで」という主張 - GIGAZINE 自由ソフトウェア?と思ったけれど、つまりフリーソフトウェアだね。いつの間にか日本語の訳語として自由ソフトウェアという使われ方がされるようになっていたのだねぇ。 これは確かにそのほうが良いかもしれない... -
雑記
金融所得課税増税に言及したので高市早苗は不支持
以前、高市早苗については以下のような記事を書いた。 基本的には、逆風の中で逆転した彼女について応援するものであった。しかし、同時に以下のような一文も書いた。 なので、総合的に考えると、今ひとまずは、応援、という態度になるかと思う。ま、なんだかんだで地元だしね。でも金融所得課税増税一言でも口走ったら鬼となる😡 さて、その... -
AI
セルフホストDify のナレッジにAPIでドキュメントを追加する
確かにDify色々いじれるのは便利。 環境 以下を実行済みとし、環境も同一。 手順 環境変数の設定 以下を環境変数として設定する。ナレッジのドキュメントを選択すると、左下に「サービスAPI」があるので、そこを見るとURIがわかる。シークレットキーを発行することもできる。 DIFY_API_BASE: http://ベースURL:ポート/v1 DIFY_DATASET_ID: ド... -
AI
セルフホストでDify + ローカルLLM + RAG
今さらRAGやる。サクッと試すならDifyかなということで、またローカルLLMとローカルデータベースにこだわりを見せてやる。 環境 M2 Pro Mac mini 12コアCPU、19コアGPU RAM 32GB macOS Sonoma 14.7.7 LLM ollama 0.12.5 deepseek-r1:14b deepseek-r1:32b ollamaは使っていること前提。 ollamaを別マシンで動かす場合、Macの場合は以下を実行...