2026-03-20 04:05:02分类:三亚阅读(12525) \u003cdiv class=\"rich_media_content\"\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 0px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003eDeepSeek最新开源的模型,已经被硅谷夸疯了!\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e因为实在太\u003c!--VERTICAL_CARD_BEGIN_0--\u003eDeepSeek\u003c!--VERTICAL_CARD_END_0--\u003e了。3B规模、指数级效能变革、大道至简,甚至被认为把谷歌Gemini严防死守的商业机密开源了。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e唯一的问题可能就是被\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e“OCR”\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e命名耽误了。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e是的,DeepSeek刚刚开源即火爆的模型就叫:\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003eDeepSeek-OCR\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_0--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e这个模型瞄准的是大模型处理长文本时的算力爆炸难题……虽然模型参数很小,但四两拨千斤,其背后所代表的\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e“用视觉方式压缩一切”\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e的思想,大道至简,既是人类智能的现实,也不断出现在诸如《三体》的科幻作品中。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e简单来说,由于一张图能包含大量文字(用的token还更少),所以他们想到并验证了“将视觉作为文本压缩媒介”这一方法——就好比优秀的人看书都是扫一眼就知道内容,不必一字一句读完才理解内容。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e一图胜千言。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e而且DeepSeek研究后发现,当\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e压缩率小倍\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e时(即文本token数是视觉token数倍以内),模型OCR解码\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e准确率高%\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e;即使压缩率高达\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e20倍\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,准确率依旧能保持在\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e60%\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e左右,效果相当能打。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c!--MID_AD_0--\u003e\u003c!--EOP_0--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_0--\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e更主要的是,DeepSeek再次展现了高效能风格,他们的方法之下,生成训练数据——\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e仅凭一块A100-40G GPU,每天就能生成超万页的优质LLM/VLM训练数据\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e所以这个研究一经公布,已经快速在GitHub斩获𱄿.3K star。HuggingFace则已经热榜第二……X上热议,好评声一片。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e刚“尖锐”评价过AI现状的卡帕西说:我很喜欢……特别是图像比文字更适合LLM输入,妙啊。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e还有人认为这是\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e“AI的JPEG时刻”\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,AI记忆架构打开了新路径。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_1--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e还有爆料猜测,谷歌Gemini的核心商业机密被开源了:\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_2--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e当然,如此火爆的工作还带来了更多思考——不少人看过论文后,认为这种统一视觉与语言的方法,或许是通往\u003c!--VERTICAL_CARD_BEGIN_1--\u003eAGI\u003c!--VERTICAL_CARD_END_1--\u003e的大门之一。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e以及DeepSeek还在论文中,谈到了AI的记忆和“遗忘”机制。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e所以,DeepSeek的新模型,论文究竟是怎么说的?\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003ch1 style=\"line-height: 1.579; margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; text-align: justify\"\u003e\u003c!--HPOS_0--\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003eDeepSeek新研究:两大核心组件实现“以小博大”\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003c/h1\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e概括而言,DeepSeek这次提出了一种名为“上下文光学压缩”(Contexts Optical Compression)的思路。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e其灵感来自这样一个巧妙的逆向思维:\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e既然一张图片能“装下”成千上万个字,那我们能不能把文字信息压缩到图片里,让模型通过“看图”来理解内容呢?\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_3--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e本质上来说,这就是一种视觉-文本压缩范式,通过用少量的视觉token来表示原本需要大量文本token的内容,以此降低大模型的计算开销。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e为验证这一想法,他们构建𱄿B大小的DeepSeek-OCR模型,结果发现它在主流文档解析基准OmniDocBench上取得了新SOTA。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e下图显示,DeepSeek-OCR(红色圆点)在“平均每张图的视觉token数”(横轴)上位于最右侧,这说明它使用的token数量最少;而在“整体性能”(纵轴,越低越好)上,它却达到了SOTA水平,而且大多还是“以小博大”。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_4--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e更具体的对比如下:\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cul style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;; padding-left: 0px\" class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e仅个视觉token\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,DeepSeek-OCR就超过了每页使个token的GOT-OCR2.0;\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e当使个视觉token时\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e(其中有效token),DeepSeek-OCR就能和之前的SOTA模型表现相当;\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e使用不个视觉token\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,DeepSeek-OCR便大大超过了平均每页个视觉token的MinerU2.0。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c/ul\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_5--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e这一切背后都离不开DeepSeek-OCR架构的两大核心组件:\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cul style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;; padding-left: 0px\" class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e编码器DeepEncoder:负责把图片转成高度压缩的视觉token;\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e解码器DeepSeek3B-MoE-A570M:负责从压缩的视觉token里重建文字。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c/ul\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_6--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e这里重点说一下整个系统的创新关键——\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e编码器DeepEncoder\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e其核心使命为,在处理高分辨率图像时,能够产出数量极少但信息密度极高的视觉token。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e为此它采用了“先局部处理,再压缩,后全局理解”的串行设计:\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cul style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;; padding-left: 0px\" class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e局部处理\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e:利用仅使用“窗口注意力”机制的SAM-base模型(8000万参数),第一步先在高分辨率图像上进行细粒度的局部特征提取。尽管此时生成的视觉token数量庞大,但由于窗口注意力的高效性,内存开销仍在可控范围内;\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e再压缩\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e:然后在中间部分加一倍卷积压缩器,从而在特征进入全局注意力模块前大幅砍掉token数量,比如一x1024的图片,经过第一阶段会产个token,但经过压缩机后,只剩个token进入第二阶段;\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e后全局理解\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e:最后利用使用“全局注意力”机制的CLIP-large模型(3亿参数),更深入地理解这些经过浓缩后的少量token,此时由于输入的token数量已经大幅减少,所以这里的计算开销也变得可以接受。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c!--MID_AD_1--\u003e\u003c!--EOP_1--\u003e\u003c/ul\u003e\u003c!--PARAGRAPH_1--\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e此外值得一提的是,为了灵活应对不同的压缩比需求和实际应用场景,DeepEncoder被训练成支持从“Tiny”(512x512, 64token)到“Gundam”(动态分块,token)等多种输入模式。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c!--MID_AD_2--\u003e\u003c!--EOP_2--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_2--\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e就是说,\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e同一个模型可以根据任务需要,随机应变地调整其“压缩强度”\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_7--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e总之,基于以上原理和组件搭配,目前DeepSeek-OCR除了具备常规识别能力,还支持对金融报表、化学分子式、数学几何图、100多种语言等更为复杂的图像进行深度解析。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_8--\u003e\u003c/p\u003e\u003ch1 style=\"line-height: 1.579; margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; text-align: justify\"\u003e\u003c!--HPOS_1--\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e三位作者亮相\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003c/h1\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e如此被夸赞的新研究,来自三位研究人员,依然很DeepSeek——几人都相对低调,网上公开资料很少。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_9--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003eHaoran Wei\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,曾就职于阶跃星辰,当时还主导开发了意在实现“第二代OCR”的GOT-OCR2.0系统。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e(2024月发表的这篇论文显示,身为论文一作的Haoran Wei所处单位为阶跃。)\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e此次DeepSeek-OCR的工作也可谓延续了GOT-OCR2.0之前的技术路径,即致力于通过端到端模型解决复杂文档解析问题。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_10--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003eYaofeng Sun\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,从去年开始就陆续参与DeepSeek多款模型研发,包括R1、V3中都有他的身影。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_11--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003eYukun Li(李宇琨)\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e,谷歌学术论文近万引研究员,也持续参与了包括DeepSeek V2/V3在内的多款模型研发。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_12--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e有意思的是,这三人在提出DeepSeek-OCR之后,还贡献了一个脑洞大开的想法——\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e用光学压缩模拟人类的遗忘机制\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"text-align: center\" data-exeditor-arbitrary-box=\"image-box\"\u003e\u003c!--IMG_13--\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e只需将上下文光学压缩与人类记忆的衰退过程进行类比,我们就能发现二者高度相似:\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cul style=\"--ul-list-style-type: \u0026#39;\\25EF\u0026#39;; padding-left: 0px\" class=\"nonUnicode-list-style-type\" data-list-style-type=\"circle\" classname=\"ex-list\" data-ex-list=\"ul\"\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e近期记忆:就像近处的物体,清晰可见。所以可以将其渲染成高分辨率图像,用较多的视觉token来保留高保真信息。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003cli\u003e\u003cp\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e远期记忆 :就像远处的物体,逐渐模糊。所以可以将其渐进式地缩放成更小、更模糊的图像,用更少的视觉token来表示,从而实现信息的自然遗忘和压缩。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003c/li\u003e\u003c!--MID_AD_3--\u003e\u003c!--EOP_3--\u003e\u003c/ul\u003e\u003c!--PARAGRAPH_3--\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e这样一来,理论上模型就可以在处理超长对话或文档时,动态地为不同时期的上下文分配不同数量的计算资源,\u003c/span\u003e\u003c/span\u003e\u003cstrong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e从而可能构建出一种无限长上下文的架构\u003c/span\u003e\u003c/span\u003e\u003c/strong\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e团队表示,虽然这还是个早期研究方向,但不失为模型处理超长上下文的一种新思路。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e这个思路确实也更像人类的智能。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e之前AI的上下文研究,对于短期中期远期的都是一视同仁,机器味儿十足,但计算资源和响应问题也会相应暴涨……\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e而现在,DeepSeek提出新思路,是时候让AI记忆更像人了。\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c/p\u003e\u003cp style=\"background-color: rgb(255, 255, 255); margin-bottom: 20px; margin-left: 0px; margin-right: 0px; margin-top: 20px; padding: 0px\"\u003e\u003cspan style=\"font-size: 18px\"\u003e\u003cspan style=\"color: rgb(34, 34, 34)\"\u003e\u003cspan style=\"background-color: rgb(255, 255, 255)\"\u003e传送门:\u003cbr/\u003eHugging Face:\u003cbr/\u003ehttps://huggingface.co/deepseek-ai/DeepSeek-OCR\u003cbr/\u003eGitHub:\u003cbr/\u003ehttps://github.com/deepseek-ai/DeepSeek-OCR\u003c/span\u003e\u003c/span\u003e\u003c/span\u003e\u003c!--MID_AD_4--\u003e\u003c!--EOP_4--\u003e\u003c/p\u003e\u003c!--PARAGRAPH_4--\u003e\u003cdiv powered-by=\"qqnews_ex-editor\"\u003e\u003c/div\u003e\u003cstyle\u003e.rich_media_content{--news-tabel-th-night-color: #444444;--news-font-day-color: #333;--news-font-night-color: #d9d9d9;--news-bottom-distance: 22px}.rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}.rich_media_content{color:var(--news-font-day-color);font-size:18px}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content{color:var(--news-font-night-color)}}.data_color_scheme_dark .rich_media_content p:not([data-exeditor-arbitrary-box=image-box]){letter-spacing:.5px;line-height:30px;margin-bottom:var(--news-bottom-distance);word-wrap:break-word}.data_color_scheme_dark .rich_media_content{color:var(--news-font-night-color)}.data_color_scheme_dark .rich_media_content{font-size:18px}.rich_media_content p[data-exeditor-arbitrary-box=image-box]{margin-bottom:11px}.rich_media_content\u003ediv:not(.qnt-video),.rich_media_content\u003esection{margin-bottom:var(--news-bottom-distance)}.rich_media_content hr{margin-bottom:var(--news-bottom-distance)}.rich_media_content .link_list{margin:0;margin-top:20px;min-height:0!important}.rich_media_content blockquote{background:#f9f9f9;border-left:6px solid #ccc;margin:1.5em 10px;padding:.5em 10px}.rich_media_content blockquote p{margin-bottom:0!important}.data_color_scheme_dark .rich_media_content blockquote{background:#323232}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content blockquote{background:#323232}}.rich_media_content ol[data-ex-list]{--ol-start: 1;--ol-list-style-type: decimal;list-style-type:none;counter-reset:olCounter calc(var(--ol-start,1) - 1);position:relative}.rich_media_content ol[data-ex-list]\u003eli\u003e:first-child::before{content:counter(olCounter,var(--ol-list-style-type)) '. ';counter-increment:olCounter;font-variant-numeric:tabular-nums;display:inline-block}.rich_media_content ul[data-ex-list]{--ul-list-style-type: circle;list-style-type:none;position:relative}.rich_media_content ul[data-ex-list].nonUnicode-list-style-type\u003eli\u003e:first-child::before{content:var(--ul-list-style-type) ' ';font-variant-numeric:tabular-nums;display:inline-block;transform:scale(0.5)}.rich_media_content ul[data-ex-list].unicode-list-style-type\u003eli\u003e:first-child::before{content:var(--ul-list-style-type) ' ';font-variant-numeric:tabular-nums;display:inline-block;transform:scale(0.8)}.rich_media_content ol:not([data-ex-list]){padding-left:revert}.rich_media_content ul:not([data-ex-list]){padding-left:revert}.rich_media_content table{display:table;border-collapse:collapse;margin-bottom:var(--news-bottom-distance)}.rich_media_content table th,.rich_media_content table td{word-wrap:break-word;border:1px solid #ddd;white-space:nowrap;padding:2px 5px}.rich_media_content table th{font-weight:700;background-color:#f0f0f0;text-align:left}.rich_media_content table p{margin-bottom:0!important}.data_color_scheme_dark .rich_media_content table th{background:var(--news-tabel-th-night-color)}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content table th{background:var(--news-tabel-th-night-color)}}.rich_media_content .qqnews_image_desc,.rich_media_content p[type=om-image-desc]{line-height:20px!important;text-align:center!important;font-size:14px!important;color:#666!important}.rich_media_content div[data-exeditor-arbitrary-box=wrap]:not([data-exeditor-arbitrary-box-special-style]){max-width:100%}.rich_media_content .qqnews-content{--wmfont: 0;--wmcolor: transparent;font-size:var(--wmfont);color:var(--wmcolor);line-height:var(--wmfont)!important;margin-bottom:var(--wmfont)!important}.rich_media_content .qqnews_sign_emphasis{background:#f7f7f7}.rich_media_content .qqnews_sign_emphasis ol{word-wrap:break-word;border:none;color:#5c5c5c;line-height:28px;list-style:none;margin:14px 0 6px;padding:16px 15px 4px}.rich_media_content .qqnews_sign_emphasis p{margin-bottom:12px!important}.rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{padding-left:30px}.rich_media_content .qqnews_sign_emphasis ol\u003eli{list-style:none}.rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep:first-child::before{margin-left:-30px;content:counter(olCounter,decimal) ''!important;counter-increment:olCounter!important;font-variant-numeric:tabular-nums!important;background:#37f;border-radius:2px;color:#fff;font-size:15px;font-style:normal;text-align:center;line-height:18px;width:18px;height:18px;margin-right:12px;position:relative;top:-1px}.data_color_scheme_dark .rich_media_content .qqnews_sign_emphasis{background:#262626}.data_color_scheme_dark .rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{color:#a9a9a9}@media(prefers-color-scheme:dark){body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content .qqnews_sign_emphasis{background:#262626}body:not([data-weui-theme=light]):not([dark-mode-disable=true]) .rich_media_content .qqnews_sign_emphasis ol\u003eli\u003ep{color:#a9a9a9}}.rich_media_content h1,.rich_media_content h2,.rich_media_content h3,.rich_media_content h4,.rich_media_content h5,.rich_media_content h6{margin-bottom:var(--news-bottom-distance);font-weight:700}.rich_media_content h1{font-size:20px}.rich_media_content h2,.rich_media_content h3{font-size:19px}.rich_media_content h4,.rich_media_content h5,.rich_media_content h6{font-size:18px}.rich_media_content li:empty{display:none}.rich_media_content ul,.rich_media_content ol{margin-bottom:var(--news-bottom-distance)}.rich_media_content div\u003ep:only-child{margin-bottom:0!important}.rich_media_content .cms-cke-widget-title-wrap p{margin-bottom:0!important}\u003c/style\u003e\u003c/div\u003e