LLM」カテゴリーアーカイブ

macで稼働中のollamaをPC上のOpenWebUiから接続

Macでollamaを起動

$export OLLAMA_HOST=0.0.0.0:11434
$ollama serve

PCのOpenwebui(docker)を起動

docker run -d --name mac-webui -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.40.17:11434 -e RAG_EMBEDDING_ENGINE=ollama -e RAG_EMBEDDING_MODEL=bge-m3:567m -v mac-webui:/app/backend/data ghcr.io/open-webui/open-webui:main

動作確認

2. Open WebUI設定確認
Open WebUIの管理画面で:

Settings → Admin Settings → Connections
Ollama Base URLが正しく設定されているか確認
「Test Connection」ボタンで接続テスト

RAGでアップロードしたファイルの場所 dockerを起動後に見える

3. ホストPCからのアクセス方法 エクスプローラーのアドレスバーに

\\wsl$\docker-desktop\mnt\docker-desktop-disk\data\docker\volumes\open-webui\_data\uploads\

生成AIによる短編の作成実験

生成AIツール:文章 gemeni flash,  動画 gemini veo2

プロンプト:米国は第2次世界大戦後、ロシアとの冷戦に勝利して世界の覇権を握ってきました。しかし、最近になって国内世論の分断が進み、財政面でも負債が膨らんでいます。今日米国が世界の覇権を握っている重要な要素として、国家間の貿易が米ドルで行われていることにあると思います。この米ドルがその地位を失うシナリオは?

動画生成ツール gemini veo2が生成したイメージ動画

生成された文章を音声で要約:ツール google NotebookLM(6分34秒)

生成された全文の読み上げ:ツール VOICEBOX (14分21秒)

生成された本文 「コードの波涛、揺れるドル

東京、日本橋。老舗商社の為替担当、田中健司(40歳)は、深まる秋の空を見上げていた。ここ数年、世界の金融市場には異変が起きていた。米ドルの独歩高時代は終わりを告げ、ドルは荒い波に揉まれる小舟のようだった。各国の高インフレ、際限なき債務膨張、そして「制裁ツール」としてのドルの濫用…それらが積み重なり、ドルへの信頼は静かに、だが確実に侵食されていたのだ。

健司は、目の前のパソコン画面を見つめた。国際的な取引を行う際、通貨の両替や送金は避けて通れない。そして、そのプロセスの大半は、数十年変わらない強固な仕組みの上に成り立っていた。

「国際送金といえば、かつては決まり切った手順だったな…」

健司は心の中で呟いた。例えば、日本の会社が海外の取引先にドルで支払いを行う場合。まず日本の銀行から、海外の銀行へ送金指示を出す。この時、銀行間で安全に、迅速に「支払いに関するメッセージ」をやり取りするために使われるのが、国際銀行間通信協会、通称SWIFTというネットワークだ。世界中のほぼ全ての銀行が加盟しており、まさに国際金融の「郵便局」のような役割を果たしている。

そして、肝心の「お金」そのものの移動だが、これはほとんどの場合、米ドルを介して行われる。日本の銀行にある円預金は、コルレス契約を結んだアメリカの銀行にあるドル口座で、米ドルに両替される。そのドルは、SWIFTで受け取った指示に基づき、さらに相手国の銀行がアメリカに持つドル口座へ送金される。最終的に、そのドルが現地の通貨に両替され、取引先の口座に入金されるのだ。

なぜドルなのか?それは、ドルが世界の基軸通貨だからだ。最も取引量が多く、最も信用され、最も流動性の高い通貨。世界の貿易の大部分がドル建てで行われ、各国の政府や中央銀行が外貨準備としてドルを大量に保有している。石油取引(ペトロダラー)も長くドル建てが中心だった。この「ドルを世界の銀行が保有し、ニューヨークの銀行を通じて清算する」という仕組みが、国際金融システムの根幹を成していた。そして、この仕組みを握る米国は、世界の金の流れを把握し、特定の国や組織をシステムから締め出す金融制裁という強力な武器を持つことができたのだ。SWIFTからの排除や、米国内のドル資産凍結は、国家にとって致命的な打撃となり得た。

その堅牢さが、ドルの基軸たる所以だった…はずなのに。

「田中さん、今日の取引、どうしますか?またドルが不安定で…」

部下が不安げに覗き込む。主要な取引先である東南アジアの工場から、「今後はドル以外の決済手段を検討したい」という打診が増えていた。人民元も候補には挙がるが、中国経済への不透明感や資本規制のリスクから、躊躇する企業は多かった。ユーロや円も、それぞれの経済圏を越えるには力不足だ。

「…少し様子を見よう。こんなに不安定なドルで長期契約を結ぶのは危険すぎる」

健司はモニターの隅に表示された、聞き慣れないティッカーシンボルを眺めた。”GLOB”。それは、数年前に国際的な技術者・金融専門家集団が発表した、新しい概念のデジタル通貨だった。「グローバス(Globus)」と呼ばれるそれは、特定の国家が管理するのではなく、分散型台帳技術(ブロックチェーン)を基盤とし、複数国の主要コモディティとソフトペッグすることで価値の安定を目指す、という触れ込みだった。当初は懐疑的に見ていた健司だが、最近になってこのGLOBの取引量が静かに、だが着実に増えていることに気づいていた。

一方、ワシントンD.C.。財務省のサラ・ジェンキンス次官補(50歳)は、連日の緊急会議に疲れ果てていた。ロシアへの追加制裁、某産油国への資産凍結…ドルを武器とする米国の戦略は、短期的な効果はあっても、長期的には裏目に出始めていた。ターゲットとされた国々だけでなく、彼らと取引のある第三国までが、ドルシステムから距離を置き始めていたのだ。

サラは知っていた。米国がドルを基軸通貨として維持してきた背景には、単なる経済力だけでなく、圧倒的な軍事力と、そして何よりも「信頼」があったことを。世界の国々は、自国の通貨をドルに換え、米国債を購入することで、米国経済の安定と、それによって保たれる国際秩序、そして自由に貿易できる環境への「保険料」を支払ってきたのだ。SWIFTという「郵便局」の管理権、そしてドルという「世界の共通語」の発行権は、米国に情報と影響力をもたらした。

しかし、最近の強権的な制裁発動や、国内の度重なる政治的混乱、そして制御不能な財政赤字は、その「信頼」という最も重要な基盤を揺るがしていた。

「IMFの報告書です、次官補。各国の外貨準備におけるドルの比率が、過去20年で最も低い水準に低下しています。代替として増えているのは金、そして…あの『グローバス』です」

部下の言葉に、サラは忌々しげに顔を歪めた。

「グローバス?あの胡散臭いデジタル通貨か。特定の国家の保証もない、得体の知れないものに、なぜ各国のソブリンファンドが資金を投じるんだ?」

「…データによれば、その『特定の国家の保証がない』ことこそが、今の彼らにとって魅力的なようです。米国の意向に左右されず、政治的なリスクから切り離されている。加えて、ドルやユーロのような既存の法定通貨よりもインフレ耐性がある、と見なされています。初期の設計者が公開した安定化メカニズムの透明性も、一部で評価されているようです」

サラは苛立ちを募らせた。彼らは戦おうとしている相手が見えないのだ。特定の敵国ではない。巨大な金融機関でもない。国境を持たない、分散されたコードの集合体。どうやって規制する?どうやって圧力をかける?かつてSWIFTやコルレス銀行を盾にすれば、世界のどこへでも金融的な圧力をかけられたはずだった。しかし、グローバスは、その古いシステムの外側で、P2P(ピア・ツー・ピア)で取引されることを目指している。

「馬鹿げている!通貨は国家の主権だ!匿名性の高いデジタル資産が世界の金融システムを支配するなど、断じて許されない!」

サラの言葉は、しかし、時代の流れには届かなかった。

シンガポール。グローバスの開発を主導した「ワールド・エコノミック・レジリエンス・コンソーシアム(WERC)」の共同代表、アニャ・シャルマ博士(40代)は、晴れやかな表情で記者会見に臨んでいた。

「本日、WERCは世界の主要な穀物、エネルギー、金属を扱う複数のトレーディングプラットフォームと提携し、これらの国際取引において、決済通貨としてグローバスを導入することを発表します。これは、国境や特定の国家の意向に左右されない、真にグローバルで安定した経済活動を実現するための一歩です」

会場からは大きな拍手が起こった。彼女の背後には、欧州、アジア、南米、アフリカ…様々な地域の企業や機関のロゴが並んでいた。そこには、米国の主要企業の姿はなかったが、彼らはもう、世界の全てではなかった。

「グローバスは、特定の国家が発行する通貨ではありません。したがって、いかなる国家の制裁や政治的思惑からも独立しています。その価値は透明性の高いメカニズムによって維持され、世界中の誰でも、インターネットに接続できれば利用できます。これは、地政学的なリスクから解放された、より効率的で公正なグローバル経済への扉を開くものです」

アニャの言葉は、世界中に波紋を広げた。特に、米国の制裁に苦しむ国々や、ドル高・ドル安の波に翻弄されてきた新興国、そして既存の金融システムへの不信感を持つ人々にとって、グローバスは希望の光のように見えた。それはSWIFTやコルレス銀行といった既存の枠組みに縛られない、全く新しい選択肢だった。

東京の健司は、記者会見のニュースを見て、息を呑んだ。穀物、エネルギー…それは世界の経済を動かす最も基本的な取引だ。それがグローバスに流れ始めるということは、ドルの牙城が崩壊寸前であることを意味していた。そして、それはSWIFTを始めとする既存の金融インフラそのものへの挑戦だった。

「田中さん!どうしますか?あのグローバス、市場で急騰しています!問い合わせが殺到していて…」

部下の声に、健司は立ち上がった。迷っている時間は終わった。リスクを回避するために、そして新たなビジネスチャンスを掴むために、グローバスを理解し、活用する時が来たのだ。

「対応するぞ。すぐにグローバスの取引口座を開設する手配を。それに、クライアント向けに、グローバス決済のメリットとリスクに関する緊急説明会を設定してくれ」

米ドル中心の時代は終わりを告げた。多極化する通貨に加えて、特定の国家に属さないデジタル通貨が、新たな主要プレイヤーとして登場したのだ。それは、SWIFTのような中央集権的なシステムとは異なる、分散型のネットワークを基盤としていた。

ワシントンのサラは、WERCの発表を聞き、血の気が引くのを感じた。彼らはドルという武器を避け、全く新しい戦場で戦いを挑んできたのだ。規制しようにも、WERCはスイスに本部を置く非営利団体であり、グローバスのネットワークは世界中に分散している。かつてのように、スウィフトから排除したり、ニューヨークの銀行を締め付けたりする手法は通用しない。彼らは、自分たちの喉元に、国家の主権が及ばない「コード」でできた刃を突きつけてきたのだ。

「副長官!どうしましょう?大手銀行がグローバス取引サービスの開始を発表し始めました!無視できません!」

「くっ…彼らは…彼らは世界の金融システムそのものを迂回しようとしている…!」

サラは唇を噛み締めた。ドルの覇権とは、単に強い通貨を持っていることではなかった。ドルを基盤とした金融システム、決済ネットワーク(SWIFTなど)、そしてそれらを支える法や制度、軍事力…その複合体が「覇権」だったのだ。しかし、グローバスのような分散型デジタル通貨は、そのシステムの外側で機能しようとしている。これは、国家の権力ではコントロールしにくい、新しい時代の「力」だった。

数ヶ月後。グローバスは急速に普及していた。特に国際的なサプライチェーンを持つ企業や、国境を越えた個人間の送金で利用が拡大。金の現物取引や主要コモディティ取引の一部でも標準的な決済手段となりつつあった。その価値の安定性は、ボラティリティの高い法定通貨や他の仮想通貨と比較して際立っていた。ドルを介さず、SWIFTを通さずとも、価値が世界を移動する手段が現れたのだ。

米国の経済は困難な調整期を迎えていた。インフレは収まらず、金利は高止まり。ドル資産からの資金流出は止まらず、米国債の消化は困難を極めた。かつての「桁外れの特権」は失われ、米国は自国の経済力に見合った生活水準への調整を迫られていた。国際社会における発言力も相対的に低下し、多極化、あるいはそれ以上に複雑な「無極化」した世界で、米国は新たな立ち位置を模索していた。

中国経済は、人民元の国際的地位向上を目指したが、グローバスという強力なライバルの出現により、その道のりは平坦ではなかった。欧州や他の地域通貨も、グローバスとの共存を模索し始めた。

東京の健司は、相変わらず忙しい日々を送っていた。彼のオフィスでは、ドルだけでなく、ユーロ、円、そして何よりもGLOBのチャートが大きな画面に表示されている。世界の通貨は多様化し、それぞれが複雑に絡み合っていた。グローバスは全ての取引を置き換えたわけではないが、国際決済におけるドルのシェアを大きく奪っていた。そして、それはSWIFTのような既存のインフラへの依存度も下げていた。

「田中さん、次の取引、ロシアとの間で鉄鋼の輸入です。向こうからはグローバス建てでの請求が来ていますが、よろしいですか?」

「ああ、問題ない。グローバスでの支払い準備を進めてくれ」

健司は頷いた。かつては考えられなかった取引形態だ。国家間の政治的な対立が、直接、経済取引の通貨選択に影響を与える。そして、それを回避する手段として、国家の枠を超えた通貨が使われる。

窓の外には、夕日が沈みかけている。ドルの時代の「黄昏」は、もう完全に訪れたのかもしれない。そして、ブロックチェーンというコードによって支えられる、新しい金融世界の「夜明け」。それは希望に満ちていると同時に、未知のリスクも孕んでいる。国家の管理が及ばない通貨が、どこまで安定を保てるのか?そのガバナンスは?新たなデジタル格差は生まれないか?

健司は、パソコンのキーボードに手を置いた。金融の世界は、かつてなくエキサイティングで、かつてなく危険になっていた。彼の戦いは、まだ始まったばかりだ。コードの波涛に立ち向かい、この新しい世界を生き抜いていく。それが、彼の、そして日本の、新たな使命だった

M3 UltraとDeepSeek R1 671Bのローカル性能検証

上記のビデオをNotebookLMに読ませて、次の問い合わせで得た情報

「モデルのサイズに応じたトークン/秒の値を表形式で表示して下さい。」

はい、最新Mac Studio M3 UltraでDeepSeek R1(671B)をローカル実行した際の性能について、モデルのサイズに応じたトークン/秒の値を表形式で以下に示します。

モデルサイズトークン/秒 (mlx)mac MINI m4 pro備考
1.5 billion約 230-262
7 billion約 113-11642
14 billion約 50-6222
32 billion約 29-3210.55
70 billion約 15-165 tokens/sLlamaのクアンタイズモデル
671 billion (4bit)約 13-20ggufはGPUオフロード設定により変動、mlxの方が高速な傾向

重要なポイント:

  • mlx形式のモデルは、Appleシリコンに最適化されているため、一般的にgguf形式よりも高いトークン/秒を記録しています。
  • 671 billionパラメータのモデル(4bitクアンタイズ)の場合、mlx形式でおおよそ13-20トークン/秒gguf形式ではGPUオフロードの設定により約7-17トークン/秒となっています。
  • gguf形式の671 billionパラメータモデルでは、GPUオフロードを最大に設定することで、トークン/秒が向上する傾向が見られました。ただし、ビデオRAMの使用量が上限に近づく可能性もあるため注意が必要です。
  • 一般的に、モデルのパラメータサイズが大きくなるほど、トークン/秒の値は低下する傾向にあります。

上記は、提供されたソースに基づいた情報です。特に断りのない限り、数値は動画内で示された計測値や言及に基づいています。

DGX sparkでLLMモデルのサイズ 8B,32B,40Bを実行したさい、予想される性能は?

Grokの答え

NVIDIA DGX Sparkは、NVIDIA GB10 Grace Blackwell Superchipを搭載し、最大2000億パラメータのAIモデルをローカルで処理できるデスクトップ型AIスーパーコンピューターです。128GBの統合メモリと1000 AI TOPS(FP4精度)の性能を持ち、大規模言語モデル(LLM)の推論やファインチューニングに適しています。以下に、8B、32B、40BのLLMモデルを実行した場合の予想性能を、利用可能な情報に基づいて推定します。

1. 8B(80億パラメータ)モデルの性能

  • 推論性能: 8Bモデルは比較的小規模で、DGX Sparkの128GBメモリに十分収まります。FP4精度での1000 TOPSの計算能力を考慮すると、推論速度は数十トークン/秒(tokens/second)が期待されます。類似システム(例:NVIDIA 4090 GPU)では、8Bモデルで50-100 tokens/secondが一般的であり、DGX Sparkはこれを上回るか同等の性能(おおよそ60-120 tokens/second)が見込まれます。
  • ファインチューニング: 8Bモデルはメモリ帯域幅(273 GB/s)や計算リソースの制約を受けにくく、効率的にファインチューニング可能。バッチサイズを大きく設定でき、数時間から1日程度で高品質なチューニングが完了すると予想されます。
  • 消費電力: 約200Wの低消費電力で動作し、8Bモデルでは電力効率が非常に高い。

2. 32B(320億パラメータ)モデルの性能

  • 推論性能: 32Bモデルはメモリ使用量が増加し、128GBのメモリ内で動作可能ですが、量子化(例:FP4や4-bit)が必要な場合があります。GTC 2025でのデモでは、32Bモデル(R1-32B)のLoRAファインチューニング後の推論が「十数トークン/秒」(約10-20 tokens/second)と報告されています。これは、メモリ帯域幅やモデルサイズのスケーリングによる制約が影響している可能性があります。
  • ファインチューニング: 32Bモデルのファインチューニングは可能ですが、メモリ帯域幅(273 GB/s)がボトルネックになる場合があります。デモではリアルタイムでのLoRAチューニングが示されており、数分から数時間で軽量なチューニングが完了する性能が期待されます。
  • 課題: トークン生成速度が生成量増加に伴い低下する傾向が報告されており、長時間の推論では性能がやや落ちる可能性があります。

3. 40B(400億パラメータ)モデルの性能

  • 推論性能: 40Bモデルは32Bモデルよりさらにメモリを要求しますが、DGX Sparkの128GBメモリで量子化を活用すれば動作可能。推論速度は32Bモデルより若干低下し、10-15 tokens/second程度が現実的な範囲と考えられます。これは、メモリ容量と帯域幅の制約によるものです。
  • ファインチューニング: 40Bモデルのファインチューニングは可能ですが、効率的な量子化やバッチサイズの調整が必要。32Bモデル同様、LoRAなどの軽量手法なら数時間で完了する可能性が高いが、フルファインチューニングはメモリ制約から時間がかかる(1日以上)。
  • スケーラビリティ: 2台のDGX SparkをNVIDIA Connect-Xで接続すれば、最大4050億パラメータのモデルに対応可能ですが、40Bモデル単体では1台で十分動作します。

全体的な考察と注意点

  • メモリ制約: DGX Sparkの128GBメモリのうち、ユーザーデータ用は約100GBとされており、システムが28GBを占有します。これにより、32Bや40Bモデルでは量子化(FP4や4-bit)が必須となる場合があります。
  • 比較: 32BモデルをNVIDIA 4090(24GB VRAM)で動作させる場合、量子化を強く適用してもDGX Sparkより高速(20-30 tokens/second)な場合がありますが、メモリ容量の制約でファインチューニングは困難。DGX Sparkは大容量メモリと統合ソフトウェアスタック(NVIDIA AIソフトウェア)の利点で、推論とチューニングの両方でバランスが良い。
  • 電力効率: 200Wの低消費電力は、データセンター級の性能をデスクトップで実現する上で魅力的。8Bモデルでは余裕があり、32Bや40Bでも実用的な性能を発揮。
  • 実測値の不足: 現時点で具体的なベンチマーク(例:トークン生成速度の公式数値)が公開されておらず、推定はデモや類似システムに基づいています。実際の性能はモデル構造や最適化に依存します。
モデルサイズ推論性能 (tokens/second)ファインチューニング時間メモリ制約と注意点
8B60-120数時間128GBメモリで余裕あり。高速かつ効率的。
32B10-20数分~数時間 (LoRA)量子化推奨。メモリ帯域幅がボトルネックになる可能性。
40B10-15数時間~1日量子化必須。32Bよりやや低速、メモリ制約厳しい。

: 性能は量子化(FP4/4-bit)使用時の推定値。実測値はモデルやタスクにより変動する可能性あり。

手持ちのPCで実行した結果(数値はトークン/秒)

NucBox_M7 Pro Ryzen 9 PRO 6950Hmac mini M4ProRTX3080+GTX1080
gemma3:4b15.355122.9
deepseek-r1:8b9.535.228.6
gemma3:12b24.520 – 25.9
deepseek-r1:32b 103 – 4

LOCAL LLM ollama

pdfファイルをアップロードしてRAG(Retrieval-Augmented Generation)

参考動画 installの参考

https://www.youtube.com/watch?v=1xdneyn6zjw

Step 1: Install Ollama https://ollama.com/
Step 2: Copy and Paste Llama 3 install command using Terminal
Step 3: Add other LLM models (optional) https://ollama.com/library
Step 4: Install Docker https://www.docker.com/
Step 5: Install OpenWebUI https://docs.openwebui.com/getting-st...
Login to OpenWebUI and start using your local AI chatbot.

ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー
STEP1:ollamaの実行
C:\Users\ei2k-> ollama.exe run llama3.1

STEP2:docker desktop実行

STEP3:dockerでopen-webuiを実行
C:\Users\ei2k-> docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

LLM活用のプロンプト・テクニック

出典:

  • 1、孫正義式ディベートプロンプト 【〇〇な】Aさん、【〇〇な】Bさん、【〇〇な】Cさん あなたがたならこの問題をどう解決するか 私の目の前でディベートしてください 問題 【〇〇】
  • 2、AIを詰める?パワハラプロンプト ありがとうございます、この出力を60点とします これを60点とした時に100点とはどのようなものですか? 100点にするために足りないものを列挙した後に 100点の答えを生成してください
  • 3、分かりやすい回答に改善するプロンプト 【〇〇】について 人と人が対話する物語形式で 分かりやすく解説してください
  • 4、シンガポール発CO-STARフレームワーク (C) コンテキスト:【〇〇】 (O) 目標:【〇〇】 (S) スタイル:【〇〇】 (T) トーン:【〇〇】 (A) 対象読者:【〇〇】 (R) 応答:以下の形式で回答を構成してください: 1.【〇〇】 2.【〇〇】 3.【〇〇】
  • 5、段階理解プロンプト 「【〇〇】」 ↑の文言を意味を保ったまま別の言葉に言い換えてください
  • 6、プロンプトを短縮して精度向上 https://chatgpt.com/g/g-G7bqU5uCZ-lis…
  • 7、ハルシネーションを避けるプロンプト手法 【〇〇】 わからないことは「知らない」と答えてください。
  • ゴール(目的)
  • 前提(AIの役割、自分の状況)
  • 出力形式(表、json…)
  • ステップ
  • 例示

https://www.perplexity.ai/search/sekiyuriteizhuan-men-jia-asan-EjFLfr6eTEC4waiY5_ZRXQ

Stream deffisionのインストール

秒100枚の画像生成ができるという「Stream Diffusion」を動かしてみる。

git clone https://github.com/cumulo-autumn/StreamDiffusion.git

Step1 環境設定

python3 -m venv .venv

Step2: Install PyTorch

pip3 install torch==2.1.0 torchvision==0.16.0 xformers –index-url https://download.pytorch.org/whl/cu121

Step3: Install StreamDiffusion

#for Latest Version (recommended)

pip install git+https://github.com/cumulo-autumn/StreamDiffusion.git@main#egg=streamdiffusion[tensorrt]

WSL2の環境へStablefussion WebUiをインストール

Windows11で新規ユーザを作成(きれいな環境へインストールするため)
作成したユーザでログイン
wslをインストール (Ubuntu22.04)
$sudo apt update
$sudo apt upgrade
$sudo apt install wget git python3 python3-venv
$git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
----------以下、発生したエラー対処----
$sudo apt-get install libgl1-mesa-dev
---Debianで必要---
$sudo apt-get install libglib2.0-0
------------------
$cd stable-diffusion-webui
$ python3 -m venv venv/
$vim webui-user.sh
13行目 コメントを外して、cudaを使わない
export COMMANDLINE_ARGS="--skip-torch-cuda-test --precision full --no-half"

$./webui.sh
4GBのファイルを含む、多くのファイルをダウンロードするので、それなりに時間がかかります。
............
Running on local URL:  http://127.0.0.1:7860
ブラウザーで上記アクセス
N5095では次の警告が出るが、画像生成は問題なく完了。
[W NNPACK.cpp:53] Could not initialize NNPACK! Reason: Unsupported hardware.█
対策 USE_NNPACK=0