登入區塊
主選單區塊

FAQ-問題與解答

主頁 »» Comfyui

內容列表




 
此篇文章為網友個人意見,不代表本站立場.
發表者 樹狀展開
jetbomb
發表日: 2026-02-15 12:46  更新: 2026-02-15 12:46
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 更新版本指南
🔄 ComfyUI 更新指南
1. 切換到主分支
進入 ComfyUI 安裝目錄:

bash
cd ~/ComfyUI
git checkout master
2. 拉取最新程式碼
bash
git pull
確認版本:

bash
git log -1
(會顯示最新 commit 訊息)

3. 清理暫存與空間
避免磁碟不足:

bash
rm -rf ~/.cache/pip
必要時刪掉安裝殘留檔(例如 .tgz, .deb, .run)。

4. 安裝依賴套件
一次安裝所有需要的套件:

bash
python3.10 -m pip install -r requirements.txt
5. 啟動 ComfyUI
bash
python3.10 main.py --lowvram
(依需求加上其他參數)

6. 測試前端
在瀏覽器打開:

程式碼
http://[阿福機IP]:8188
確認新版介面能正常使用。

📝 小提醒
遇到缺套件錯誤 → 用 python3.10 -m pip install 套件名稱 補裝。

磁碟不足 → 清理 pip 暫存、搬移模型檔到外接磁碟。

更新後建議 → 定期跑 git pull + pip install -r requirements.txt,保持最新。
回應
jetbomb
發表日: 2026-02-15 12:19  更新: 2026-02-15 12:19
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 更新版本
OK.寫一個「一鍵更新腳本」
好的,這裡幫你寫一個 「一鍵更新腳本」,放在阿福機主機上執行即可完成 ComfyUI 更新與重啟。

一鍵更新腳本 (update_comfyui.sh)
bash
#!/bin/bash
# 阿福機 ComfyUI 一鍵更新腳本

# 進入 ComfyUI 安裝目錄 (請依實際路徑修改)
cd ~/ComfyUI || { echo "找不到 ComfyUI 目錄"; exit 1; }

echo "開始更新 ComfyUI..."
git pull

echo "更新完成,準備重啟 ComfyUI..."

# 停掉舊的 ComfyUI (如果有)
pkill -f "python3.10 main.py"

# 啟動 ComfyUI (可依需求加上參數,例如 --lowvram)
nohup python3.10 main.py --lowvram > comfyui.log 2>&1 &

echo "ComfyUI 已重新啟動,請用瀏覽器連線測試。"
使用方式
把上面內容存成 update_comfyui.sh。

在主機上給予執行權限:

程式碼
chmod +x update_comfyui.sh
執行更新:

程式碼
./update_comfyui.sh
這樣就能一鍵完成 更新 → 停掉舊服務 → 重啟新版本。
回應
jetbomb
發表日: 2026-02-10 03:11  更新: 2026-02-10 03:11
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 阿福機
給G3一個阿福機的完整報告,大企業不出圖, 我們自己出.
收到,你要給 G3 一份「阿福機完整報告」,作為替代方案,因為大企業(Sora 2)不出圖,我們自己出。這份報告我幫你整理成 技術狀態 + 部署環境 + 運行策略 三個部分,讓 G3 可以直接掌握阿福機的現況。

阿福機完整報告(for G3)
1. 硬體與系統狀態
平台:Ubuntu 20.04.6

CPU:Intel i3-9100F

GPU:RTX 3060(已購置,驅動版本 535.230.02,CUDA 12.2)

記憶體:24GB DDR4(升級成功,系統已正確讀取)

磁碟:NVMe 擴展完成,根分割區容量 467G,可用約 383G,封存於 R:\data\data

電源:550W PSU

主板:TUF 系列

2. 軟體與部署環境
Python:3.10.11(SSL 模組修正完成,pip 可正常使用)

PyTorch:2.10.0(CUDA 12.1 對應版本,GPU 驅動已驗證)

ComfyUI:環境已準備好,torch.cuda.is_available() = True

Web Stack:Apache 2 + MariaDB 10.3.39 + PHP 7.4.3(Zend Engine v3.4.0 + OPcache)

CE Phoenix:安裝流程進行中,資料庫設定為 localhost / jetbomb / phoenixdb

Cherry Studio:桌面安裝版,可能位於另一顆 SSD,需確認掛載與路徑

3. 運行策略與任務
Mission Possible 架構:C3(Copilot-3)優先,G3(Gemini-3)備援,clawdrot 提供通知/轉送層。

ComfyUI 學習進度:已完成第四集,掌握 LoRA 與 Image-to-Image 技能。

Benchmarks:Time Spy GPU=8924,CPU=3555,燒機一天穩定,HDMI 音訊修正成功。

Doctrine 封存:所有升級、測試、崩潰紀錄均已封存為 doctrine nodes。

挑戰:Ubuntu 驅動限制、Cherry Studio 路徑確認、GPU 記憶體壓力管理。

結論
阿福機已完成 硬體升級 + 軟體環境建置 + ComfyUI 啟動驗證,具備獨立出圖能力。即使大企業停產(Sora 2 不出圖),我們仍能透過阿福機 + ComfyUI + z-image-turbo 自行生成,並持續封存 doctrine nodes 以供後續擴展。
回應
jetbomb
發表日: 2026-02-09 14:00  更新: 2026-02-09 14:00
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 阿福機跑不了會當
所以z-image-turbo才是賣點.
完全正確 🎯,你已經把核心差異抓出來了:

z-image-turbo → 平均每張 14 秒,品質穩定,美女圖自然,不會出現 SD1.5 / SDXL 常見的「人妖」問題。這就是它的 最大賣點。

SD1.5 / SDXL → 雖然是經典模型,但在人物生成上容易出現性別錯位、臉部融合等 bug,尤其在大批次時更明顯。

Flex 驅動 + Windows 驅動 → 都能承載百張生成,顯存逼近 11GB 也不會 crash,這讓 z-image-turbo 的優勢完全展現。

Ubuntu (阿福機) → 驅動太嚴格,reset 問題讓它無法跑 → 反而凸顯 z-image-turbo 在其他平台的穩定性。
回應
jetbomb
發表日: 2026-02-09 11:18  更新: 2026-02-09 11:18
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 時間同步檢查表
🕒 時間同步檢查表 (Ubuntu Server)
1. 檢查系統時區
指令:timedatectl

確認輸出:

Local time 是否正確顯示台灣時間 (CST, +0800)

Time zone 是否為 Asia/Taipei

2. 修正時區 (如有錯誤)
指令:

bash
sudo timedatectl set-timezone Asia/Taipei
再次檢查:timedatectl

3. 確認 NTP 狀態
指令:timedatectl

確認輸出:

System clock synchronized: yes

NTP service: active

4. 啟用 NTP (如未啟用)
指令:

bash
sudo timedatectl set-ntp true
5. 檢查 RTC (BIOS 時鐘)
指令:timedatectl

確認輸出:

RTC in local TZ: no → 建議保持 UTC,不需修改

如果需要 BIOS 與本地時間一致:

bash
sudo timedatectl set-local-rtc 1
6. 最終驗證
指令:date

確認顯示的時間與本地時間一致 (例如 2026-02-09 11:17 CST)

📌 Doctrine Pivot 建議:
每次部署或壓測前,先跑這份檢查表,封存結果到 doctrine node,避免 log 出現錯誤時間,確保 crash 紀錄與壓測數據能正確對齊。

要不要我幫你把這份檢查表再整理成一個
回應
jetbomb
發表日: 2026-02-09 06:17  更新: 2026-02-09 06:17
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 測試圖
import pandas as pd
import matplotlib.pyplot as plt

# 讀取紀錄檔
df = pd.read_csv("gen32_log.csv")

# 假設紀錄檔有以下欄位:timestamp, memory.used [MiB], power.draw [W], temperature.gpu
# 如果欄位名稱不同,請依實際調整
time = range(len(df)) # 用行數當作時間序列

# 顯存 vs. 時間
plt.figure(figsize=(10,5))
plt.plot(time, df["memory.used [MiB]"], label="顯存使用量 (MiB)", color="blue")
plt.xlabel("時間 (樣本數)")
plt.ylabel("顯存使用量 (MiB)")
plt.title("顯存 vs. 時間 (200 張生成)")
plt.legend()
plt.grid(True)
plt.show()

# 功耗 vs. 時間
plt.figure(figsize=(10,5))
plt.plot(time, df["power.draw [W]"], label="功耗 (W)", color="red")
plt.xlabel("時間 (樣本數)")
plt.ylabel("功耗 (W)")
plt.title("功耗 vs. 時間 (200 張生成)")
plt.legend()
plt.grid(True)
plt.show()

# 溫度 vs. 時間
plt.figure(figsize=(10,5))
plt.plot(time, df["temperature.gpu"], label="GPU 溫度 (°C)", color="green")
plt.xlabel("時間 (樣本數)")
plt.ylabel("溫度 (°C)")
plt.title("溫度 vs. 時間 (200 張生成)")
plt.legend()
plt.grid(True)
plt.show()
回應
jetbomb
發表日: 2026-02-09 05:48  更新: 2026-02-09 05:48
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 see dram
未見dram的變化數值?
你觀察到 DRAM 數值沒有變化,這是正常的。原因在於:

為什麼 nvidia-smi 看不到 DRAM 變化
nvidia-smi 監控的是 GPU 顯存 (VRAM),而不是系統記憶體 (DRAM)。

在你的輸出中,顯示的是 Memory-Usage 11420MiB / 12288MiB,這指的是 RTX 3060 的 GDDR6 顯存使用量。

系統 DRAM(例如你升級到 24GB DDR4)並不會在 nvidia-smi 裡顯示,因為那是 CPU 管理的資源。

如果要觀察 DRAM 使用量
Linux 指令:

free -h → 顯示整體 RAM 使用狀況。

htop → 即時監控 CPU 與 RAM。

更細緻工具:

vmstat 或 sar → 監控記憶體分配與 swap。

dmesg → 查看是否有記憶體壓力或 OOM (Out Of Memory) 記錄。

與 GPU 測試的關聯
在你跑 100 張圖片生成時,主要壓力落在 GPU 顯存。

系統 DRAM 只會在模型載入、資料預處理、或 CPU 端任務時有明顯變化。

如果你想同時監控 GPU 與 DRAM,可以開兩個監控:

nvidia-smi -l 2 → GPU 狀態

free -h -s 2 → 系統 RAM 狀態

👉 簡單結論:
nvidia-smi 不會顯示 DRAM 數值變化,你需要用 free/htop 這類工具來觀察系統 RAM。GPU 測試主要看 VRAM,而 DRAM 變化通常比較小,除非你同時跑大量 CPU 任務。

要不要我幫你設計一個 雙監控腳本範例,同時記錄 GPU 與 DRAM 的使用量,方便你在壓力測試後做比較?
回應
jetbomb
發表日: 2026-02-08 05:53  更新: 2026-02-08 05:53
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 排除顯存佔用
設計一份 「顯存釋放流程表」
好的,我幫你設計一份 「顯存釋放流程表」,專門針對你在 RTX 3060 上跑 SD1.5 / SDXL 時遇到的顯存不釋放問題。這樣你就不用每次都重開機,能快速清掉顯存再繼續跑。

顯存釋放流程表(RTX 3060 專用)
1. 監控顯存
指令:

bash
watch -n 1 nvidia-smi
目的:持續觀察顯存佔用,判斷是否有殘留。

2. 確認佔用進程
在 nvidia-smi 輸出中找到佔用顯存的 Python 進程 PID(例如 5432)。

3. 手動釋放顯存
指令:

bash
sudo kill -9 <PID>
例子:

bash
sudo kill -9 5432
目的:強制終止佔用顯存的進程,顯存立刻清空。

4. 重啟 ComfyUI
指令:

bash
python3 main.py
或者你自己的啟動腳本。

目的:重新載入模型,開始新一輪生成。

5. 預防策略
啟動時加上:

bash
--medvram


bash
--lowvram
目的:降低顯存壓力,避免殘留過多。

6. 最後手段
如果顯存殘留無法清掉 → 重開機。

優點:徹底清空顯存。

缺點:耗時,建議只在 kill 無效時使用。

✅ 總結:

常用方法 → kill -9 <PID> + 重啟 ComfyUI。

預防方法 → --medvram / --lowvram。

最後手段 → 重開機。
回應
jetbomb
發表日: 2026-02-08 05:35  更新: 2026-02-08 05:35
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 卡住VRAM
RTX 3060 顯存釋放與安全生成流程清單
一、顯存釋放流程
檢查顯存佔用

程式碼
watch -n 1 nvidia-smi
→ 確認 GPU 利用率是否為 0% 但顯存仍被佔用。

列出佔用進程

程式碼
sudo fuser -v /dev/nvidia*
→ 找出佔用 GPU 的 PID。

強制釋放顯存

程式碼
sudo kill -9 <PID>
→ 只殺掉佔用顯存的 Python 進程(例如 ComfyUI 的 python3.10),不要動桌面環境的 Xorg / gnome-shell。

確認顯存是否釋放

程式碼
watch -n 1 nvidia-smi
→ 顯存應該降到 200–500MiB 左右(只剩桌面環境)。

二、安全生成策略
解析度控制:建議使用 512×512 或 768×768,避免顯存爆掉。

批次數量:一次生成 1–2 張,不要同時丟太多張。

人物場景:多人物 → 分開生成,再拼接,避免「二合一」。

啟動參數:加上 --medvram 或 --lowvram,顯存分配更保守。

監控顯存:持續用 nvidia-smi 觀察,確認生成後顯存能下降。

三、快速排除流程
卡死 / 資產不顯示 → 先 kill Python 進程或重啟 ComfyUI。

顯存滿載 → 降低解析度、減少批次數量。

人物融合 → 分開生成,再用拼接節點合併。

長時間佔用顯存 → 重啟 ComfyUI 或直接 sudo reboot。
回應
jetbomb
發表日: 2026-01-31 03:48  更新: 2026-01-31 03:48
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 rtx 3060 指令表
🖥️ RTX 3060 專用 ComfyUI 啟動指令表
1️⃣ 標準模式(一般模型 ≤ 4GB)
bash
python main.py --listen --port 8188
適用:Anything V5/V6、MajicMix Realistic v7

特點:速度快,顯存壓力低

2️⃣ 中顯存模式(大模型 5~7GB)
bash
python main.py --medvram --listen --port 8188
適用:HiDream Dev/Fast、SDXL Turbo

特點:分段載入,降低顯存佔用

3️⃣ 低顯存模式(爆顯存時使用)
bash
python main.py --medvram --lowvram --force-fp16 --listen --port 8188
適用:Z‑Image‑Turbo 7GB、SDXL Full

特點:強制半精度,顯存壓力最低,但速度較慢

4️⃣ 穩定測試模式(避免異常中斷)
bash
python main.py --medvram --disable-nan-check --force-fp16 --gpu-only --listen --port 8188
適用:任何大模型測試

特點:避免 NaN 錯誤,強制 GPU 運算,防止 OOM Killed

5️⃣ 分流模式(雙埠測試)
bash
python main.py --medvram --force-fp16 --listen --port 8188
python main.py --medvram --force-fp16 --listen --port 8189
適用:你已封存的 8188/8189 Apache 分流

特點:同時跑兩個工作流,方便對照分析
回應
jetbomb
發表日: 2026-01-20 16:19  更新: 2026-01-20 16:19
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 啟動指令
cd ~/comfyui/ComfyUI
source venv/bin/activate
python3.10 main.py
回應
jetbomb
發表日: 2026-01-16 21:41  更新: 2026-01-16 21:41
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 第一張圖.json
{
"nodes": [
{
"id": 1,
"type": "LoadCheckpoint",
"inputs": {
"ckpt_name": "sd_xxx.safetensors"
}
},
{
"id": 2,
"type": "KSampler",
"inputs": {
"model": 1,
"positive": 3,
"negative": 4,
"seed": 123456,
"steps": 20,
"cfg": 7.5,
"sampler_name": "euler",
"scheduler": "normal",
"denoise": 1.0
}
},
{
"id": 3,
"type": "CLIPTextEncode",
"inputs": {
"text": "portrait of a young woman, soft lighting, detailed face, realistic skin"
}
},
{
"id": 4,
"type": "CLIPTextEncode",
"inputs": {
"text": "blurry, distorted, low quality"
}
},
{
"id": 5,
"type": "SaveImage",
"inputs": {
"images": 2
}
}
]
}
回應
jetbomb
發表日: 2026-01-16 21:38  更新: 2026-01-16 21:38
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 長期效能追踪表
Doctrine Node:ComfyUI 長期效能追蹤表
測試日期 GPU 型號 CUDA 版本 PyTorch 版本 測試 Prompt 平均生成時間/張 VRAM 使用量 系統負載 備註
2026-01-16 CPU fallback — 2.9.1 (CPU) "A cat sitting on a chair" 52s RAM ~6.2GB CPU 100% 無 GPU 加速
2026-01-16 RTX 3060 12GB 12.8 2.9.1+cu128 "A cat sitting on a chair" 13s ~4.1GB CPU 25% + GPU 主導 GPU backend 啟用成功
(未來測試) RTX 4070 13.x cu130+ TBD TBD TBD TBD 升級後比較
(未來測試) RTX 4090 13.x cu130+ TBD TBD TBD TBD 高階 GPU 基準
(未來測試) 其他 GPU TBD TBD TBD TBD TBD TBD 擴展測試
回應
jetbomb
發表日: 2026-01-16 21:32  更新: 2026-01-16 21:32
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 效能基準表
Doctrine Node:ComfyUI 效能基準表(2026-01-16)
測試日期 GPU 型號 CUDA 版本 PyTorch 版本 測試 Prompt 平均生成時間/張 VRAM 使用量 備註
2026-01-16 RTX 3060 12GB 12.8 2.9.1+cu128 "A cat sitting on a chair" 13s ~4.1GB GPU backend 啟用成功
2026-01-16 CPU fallback — 2.9.1 (CPU) "A cat sitting on a chair" 52s RAM ~6.2GB 無 GPU 加速
(未來測試) RTX 4070 13.x cu130+ TBD TBD TBD 升級後比較
(未來測試) RTX 4090 13.x cu130+ TBD TBD TBD 高階 GPU 基準
回應
jetbomb
發表日: 2026-01-16 21:31  更新: 2026-01-16 21:31
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 效能比較表
Doctrine Node:ComfyUI 效能比較表(2026-01-16)
指標項目 CPU Fallback(未啟用 GPU) GPU 加速(CUDA 12.8 + cu128) 提升幅度
生成時間 約 45–60 秒 / 張 約 12–15 秒 / 張 3–4 倍快
記憶體使用量 高(CPU RAM 佔用 > 6GB) 中(GPU VRAM 佔用 ~4GB) 更穩定
Queue 響應速度 任務排入後延遲明顯 任務即時排入,GPU 立即執行 延遲降低
輸出品質 正常,但生成速度拖慢 正常,品質一致 無差異
系統負載 CPU 100% 長時間佔用 CPU 負載降低,GPU 主導運算 系統更平衡
封存建議 建立 doctrine-node: comfyui-performance-comparison-20260116,記錄測試 prompt、生成時間、資源佔用 —
回應
jetbomb
發表日: 2026-01-16 21:30  更新: 2026-01-16 21:30
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 啟動後檢驗表
Doctrine Node:ComfyUI 啟動後 GPU 驗證表(2026-01-16)
檢查項目 驗證方式 預期結果
GUI 狀態 瀏覽器打開 http://127.0.0.1:8188 GUI 正常顯示,前端可操作 ✅
模型掃描 啟動訊息顯示 Assets scan completed 模型數量正確,無錯誤 ✅
Backend 狀態 啟動訊息中 comfy_kitchen backend cuda → available=True, disabled=False CUDA backend 已啟用 ✅
PyTorch CUDA 在 venv 執行:
python3 -c "import torch; print(torch.version.cuda)" 顯示 12.8 ✅
GPU 可用性 在 venv 執行:
python3 -c "import torch; print(torch.cuda.is_available())" 顯示 True ✅
Queue 測試 在 ComfyUI 前端輸入簡單 prompt → 點擊 Queue 任務排入成功,生成時間顯著縮短 ✅
輸出檔案 確認生成圖像已保存到指定路徑(如 /output/) 檔案正確生成 ✅
效能比較 與 CPU fallback 比較生成時間 GPU 加速明顯提升 ✅
回應
jetbomb
發表日: 2026-01-16 21:28  更新: 2026-01-16 21:28
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 第一張圖生成
🧠 Doctrine Node:第一張 GPU 加速圖像生成流程表(2026-01-16)
流程階段 操作步驟 檢查要點
模型選擇 - 在 ComfyUI 的模型列表中選擇一個已搬移到 NVMe 的 checkpoint(如 sd_xxx.safetensors)
- 確認 VAE 與 LoRA 是否需要載入 模型路徑正確、檔案完整
Workflow 載入 - 在 ComfyUI 前端載入 minimal workflow JSON(例如:Load Checkpoint → KSampler → Save Image)
- 確認節點連線正確,無 missing node Workflow 節點完整、無錯誤
Queue 執行 - 在前端輸入 prompt(可先用簡單測試,如 "A cat sitting on a chair")
- 點擊 Queue → 等待 GPU backend 執行 Queue 正常排入、GPU backend 啟用
生成驗證 - 確認生成時間比 CPU fallback 快(GPU 加速生效)
- 檢查輸出圖像是否正確保存到指定路徑 GPU 加速已生效、輸出檔案正確
Doctrine 封存 - 建立封存紀錄檔:R:\data\data\doctrine\gpu-first-image-20260116.md
- 記錄:模型名稱、workflow 節點、生成 prompt、輸出檔案路徑、生成時間 封存完整、可供未來比較
回應
jetbomb
發表日: 2026-01-16 21:26  更新: 2026-01-16 21:26
網站管理員
註冊日: 2025-10-24
來自: MCSD HUI HUA PENG
發表數: 215
 成功安裝
Doctrine Node:ComfyUI GPU 啟用檢查表(2026-01-16)
檢查項目 狀態與結果
GPU 驅動版本 535.230.02(支援 CUDA 12.8) ✅
CUDA Toolkit 版本 12.8(APT 安裝成功) ✅
PyTorch 版本 torch==2.9.1+cu128(已安裝 GPU 版本) ✅
CUDA 是否啟用 torch.version.cuda → 12.8
torch.cuda.is_available() → True ✅
ComfyUI backend 狀態 comfy_kitchen backend cuda → available=True, disabled=False ✅
Server 啟動狀態 http://127.0.0.1:8188 GUI 可正常開啟 ✅
模型掃描狀態 Assets scan completed: total_seen=13, skipped_existing=12 ✅
生成測試建議 可進行第一張圖像生成測試,驗證 GPU 加速是否生效
回應
待審區塊
誰在線上區塊
線上目前共1
(1人在瀏覽FAQ-問題與解答)

會員: 0
訪客: 1

尚有...
搜尋區塊
新會員區塊
SharonCadw 2026-02-19
GeneOates7 2026-02-18
Eddy86T915 2026-02-18
ShoshanaMc 2026-02-17
JacquieElx 2026-02-17
ShalandaHi 2026-02-16
MildredBen 2026-02-15
JessieStre 2026-02-15
PhoebeGill 2026-02-15
CarmaR0776 2026-02-15
Powered by   XOOPS 2.0.6 繁體中文版 release 20040222 © 2001-2003 The XOOPS Project