Flipbook原型顛覆傳統網頁,改以即時生成像素影像取代HTML與程式碼
AI 語音朗讀 · Edge TTS
Flipbook原型顛覆傳統網頁,改以即時生成像素影像取代HTML與程式碼。
Flipbook原型介紹
Zain Shah、Eddie Jiao與Drew Carr開發的「Flipbook」原型,實現無HTML、無佈局引擎、無程式碼的無限視覺瀏覽器,每個「頁面」皆為即時生成的影像,點擊影像任一區域即可產生更深入探索的新影像,直接串流至畫面像素。該系統批判傳統網頁充斥文字與彩色矩形,宛如「透過細管啜飲智慧之海」,主張透過即時生成豐富視覺,提供更有效溝通複雜概念的運算體驗。
無拘束互動與自適應設計
由於無嚴格佈局引擎,插圖能自動重塑適應視窗大小,且影像任一區域皆可變成互動區塊,而非僅限預設按鈕。
- 點擊影像任意部分,即生成新影像深入探討該元素。
- 無特定連結或欄位,一切純粹為生成像素,擺脫傳統UI限制。
即時影片串流技術
團隊高度最佳化「LTXStudio」的影片模型,實現透過WebSockets直接連結「Modal Labs」無伺服器GPU基礎設施,串流1080p 24fps即時影片至畫面。
- 這是實驗性「live video stream」功能,將靜態影像轉為連續影片串流,動畫化每個探索影像並無縫過渡。
- 目前行為稍不穩定且資源密集,故置於切換開關後;未來將整合影像與影片生成系統為單一架構。所有文字皆由影像模型渲染為像素,偶有不完美位置或渲染,將隨模型進步改善。
資訊來源與準確性
影像資訊來自Agentic網路搜尋結合影像模型的世界知識,事實準確度類似ChatGPT/Gemini/Claude,可能偶有不準,但多基於線上真實資料,為有用起點。該設計強調視覺優先,一圖勝千言,摒棄生成式UI的僵化框架,讓系統找出最適溝通方式,如單字、插圖或寫實渲染。
當前限制與未來願景
Flipbook目前限於視覺解說,適合開放式探索與學習,因模型尚未足夠精準與具狀態性(stateful),無法涵蓋需結構化UI的任務如程式撰寫;示範影片多經加速/編輯,實際體驗早期且緩慢,可至http://flipbook.page試用。
- 隨著影像/影片模型更準確高效,頁面將納入更多真實資料、增強互動,甚至執行動作與儲存資料。
- 從僅研究旅行行程,到完整預訂皆在Flipbook內完成;最終取代需獨立App/網站的工具,提供如真實世界般豐富視覺體驗。
作者立場堅定,這是對傳統程式碼主導介面的反思,預見全視覺化運算未來,但坦承現階段仍為資源耗費的實驗。
Imagine every pixel on your screen, streamed live directly from a model. No HTML, no layout engine, no code. Just exactly what you want to see.@eddiejiao_obj, @drewocarr and I built a prototype to see how this could actually work, and set out to make it real. We're calling it… pic.twitter.com/C4BEi1lse8
— Zain Shah (@zan2434) April 22, 2026
Because there's no strict layout engine, illustrations reshape themselves to fit your window. And any region of the image can become interactive, not just the parts someone decided to make a button (2/5) pic.twitter.com/4ztSuzwB21
— Zain Shah (@zan2434) April 22, 2026
To bring the imagery to life, we heavily optimized @LTXStudio's video model. Enough to stream live 1080p video at 24fps directly to your screen, connecting directly via websockets to @modal_labs serverless GPU infra. (3/5) pic.twitter.com/BleLTHMR7p
— Zain Shah (@zan2434) April 22, 2026
Today, Flipbook is limited, so we designed it around visual explanations. As the models get more accurate and more stateful, the set of things worth doing this way will expand. Even ones you'd assume need structured UIs like coding: (4/5) pic.twitter.com/zvSXJ2tIlc
— Zain Shah (@zan2434) April 22, 2026
All of this is live! it's early and slow. many of the demos above are sped up/edited, but we can't wait to see what you think. Try it yourself at https://t.co/bcephqPu1c (5/5)
— Zain Shah (@zan2434) April 22, 2026
