問題在哪
AI 說: "看不清這張圖"
你認認真真截了一張長截圖 —— 一段對話、一篇文章、一張資料庫表, 然後丟給 ChatGPT、Claude 或 Gemini, 讓它做摘要、翻譯、提取資訊。
你沒看到的是: LLM 後端為了省 token, 會偷偷給圖重新壓一遍, 長截圖被壓得最狠 —— 文字糊成一團, 數字也變模糊, 截圖的意義就沒了。
AI 回你"我看不清這張圖裡的文字", 這不是 AI 不行, 它看到的就是糊掉那張。
我們怎麼做
在壓縮臨界點切片, 無損打包
我們把截圖切到 LLM 後端"不會再壓"的高度, 打包成不壓縮的 ZIP, 把片段都丟進 AI 對話 —— 這次它們真能看清。
怎麼做到的
工作原理
五個工程決策, 大白話講完。
01
2880 像素切片
主流 LLM 後端"基本不再壓縮"的經驗臨界點, 低於這個高度, 每片單獨都落在無損那一邊。
02
PNG 無損
源像素全部保留, 不會再過 JPEG, 不做色度取樣, 不重新量化。
03
ZIP 不壓縮
只用 STORE 模式, 包裡的 PNG 位元組跟單獨 PNG 完全相同 —— ZIP 只是一個裝運容器, 不是壓縮步驟。
04
順序檔名
panorix-<時間戳>_01.png、_02.png、_03.png… 按檔名順序拖進 AI 對話, 從上讀到下不會亂。
05
99 片上限
能處理大約 285,120 px 高的截圖 ( 99 × 2880 ), 輸出 99 個獨立檔案, 再長就讓單片略高一點, 塞進 99 個 —— 清晰度仍然保留。
怎麼用
怎麼用
七步, 不登入, 不上傳。
- 01 用 Panorix 像平常一樣截一張長圖。
- 02 編輯器會自動開啟 —— 不用你手動啟動。
- 03 ( 可選 ) 標註或裁切截圖。
- 04 點 匯出, 在下拉裡選 "AI Reading — For AI"。
- 05 等幾秒做切片打包 —— 瀏覽器會下載一個 ZIP 給你。
- 06 解壓, 把所有切片 PNG 一起拖進 AI 對話框。
- 07 問你的問題, AI 會按檔名順序從上讀到下。
誠實告訴你
AI Reading 不能做的事
AI Reading 解決的是壓縮問題, 不是所有問題, 下面這些它做不到 —— 提前講清楚:
- 突破不了單次對話的圖片張數上限 —— 你還是要看 AI 服務商定的規則。
- 改進不了 AI 自己的影像理解能力, 模型 OCR 不行的話, 清晰輸入也救不回來。
- 替代不了 OCR —— AI 還是要自己讀字, 我們只保證字夠清楚, 被讀到。