乳胶漆是家庭装修中常用的一种墙面涂料,其以乳液为主要基料,具有无毒、无味、无污染等特点。然而,乳胶漆中的甲醛释放问题不容小觑。甲醛是一种常见的有机化合物,被广泛应用于家具、建筑材料、装饰材料等领域。长期接触高浓度甲醛可能导致眼、鼻、喉部不适,甚至引起过敏反应、呼吸道疾病等。乳胶漆中的甲醛释放时间因产品、环境等因素而异。一般来说,优质的乳胶漆在涂装后会在较短的时间内释放甲醛,通常在几天到几周内。然而,劣质乳胶漆可能存在较长时间的甲醛释放,甚至超过半年。因此,在选择乳胶漆时,应注重产品质量,选择正规厂家生产的产品。
作为涂料行业领军品牌,三棵树始终关注人类美好生活和家居健康,致力于打造健康环保的墙漆产品,以专业力量为消费者提供健康保障,满足家庭的绿色装修需求。
以三棵树凝萃御优硅藻抗甲醛易擦洗六合一墙面漆为例。三棵树臻选优质原料,采用先进生产工艺,特别添加源自海洋的天然硅藻材料,以纯净无添加配方工艺打造凝萃系列墙面漆,提升漆膜多项性能。凝萃御优硅藻抗甲醛易擦洗六合一墙面漆采用三棵树独有的“醛化水”技术,能够有效捕捉空气中的游离甲醛并将其转化成无害的水分子,进而达到净化家居空气的目的。该产品符合Ⅰ级抗菌的标准要求,还拥有双倍防霉、抗碱性强、高耐擦洗、高遮盖力、可调浅色、漆膜细腻的六大效能。在环保表现上,这款产品通过多重国内外权威环保认证与标准,符合更严苛的健康+水性涂料标准,满足7项无添加的要求,营造健康安心的室内家居环境。
选择有环保认证的乳胶漆产品,打造更安全可靠的健康家居。未来,三棵树将持续践行“以用户为中心、与合作者共赢、与奋斗者共享”的核心价值观,推行“极致健康、极致性能、极致应用”的理念,研发新材料、新一代、新应用的“三新”产品,满足用户全屋一站式绿色建材需求。
相关推荐: 26岁的“天才少年”,带队面壁打通高效大模型之路
每一轮技术浪潮出现时,冲在最前面的都是朝气蓬勃的年轻人。 当大模型代表的人工智能浪潮席卷全球,作为移动互联网“原住民”的年轻开发者,可以说是最活跃的群体。他们的脸庞还有些稚嫩,但在技术和方向上有着自己的想法,在火热的AI赛道里加速狂奔,努力打下一片新天地。 面壁智能CTO曾国洋就是其中的佼佼者,26岁的年纪管理着清华系明星大模型创业公司的研发团队,坚定地踏上了AGI征途。 01 十多年开发经验的创业公司CTO 在许多人的印象中,24岁不过是研究生刚毕业的年纪,刚刚进入职场,扮演的还是“学徒”的角色。但在曾国洋的故事里,24岁已经作为CTO带领着面壁智能的核心技术团队,同时也是一位有着十多年经验的资深开发者。 和OpenAI的创始人Sam Altman一样,曾国洋在8岁就开始学编程。身边的朋友、老师、父母等潜移默化地告诉他:“会写代码”是一件很厉害的事。于是从Visual Basic开始,懵懵懂懂地开启了编程之路。 到了中学时,曾国洋已经系统性地接触了C/C++,喜欢在网上看一些国内外的资料,尝试写出更复杂的程序。因为“写代码”的爱好,曾国洋在高二时先后获得全国青少年信息学竞赛金牌和亚太地区信息学竞赛金牌,并因此被保送到清华,为日后的大模型创业埋下了伏笔。 没有高考压力的曾国洋,在2015年的冬令营上了解到旷视正在招实习生,抱着试一试的心态报了名,由此正式步入AI领域。 AlphaGo和李世石的围棋大战,点燃了深度学习的热潮,无数年轻人为之彻夜不眠,曾国洋也不例外。大二期间,在室友的引荐下,曾国洋加入了清华大学NLP实验室,误打误撞成为中国最早一批大模型研究员,并在后来成为悟道·文源中文预训练模型团队的骨干成员。 十多年的开发经验,培养了曾国洋的工程化思维和能力,大学毕业时不甘于做象牙塔里的学术派,毅然加入到了大模型浪潮中。 在OpenAI发布GPT-3的第二年,为了解决大模型“训练难、微调难、应用难”的挑战,曾国洋作为联合发起人创建了OpenBMB开源社区,旨在打造大规模预训练语言模型库与相关工具,加速百亿级以上大模型的训练、微调与推理,以降低大模型的使用门槛,实现大模型的标准化、普及化和实用化,让大模型能够飞入千家万户。 清华大学计算机系长聘副教授刘知远在2022年牵头创办面壁智能时,曾国洋果断放弃了手里的多个Offer,担纲这家大模型创业公司的技术1号位,完成了从一线开发者到大模型创业公司CTO的华丽转身。 02 “高效大模型就是面壁智能” Scaling law,被看作是 OpenAI 的核心技术,简单来说,可以通过更复杂的模型、更大的数据量、更多的计算资源,提高模型的性能。前两年,国内外企业都在卷参数量,做到了千亿、万亿,甚至是十万亿,越到后面,但大家渐渐发现参数量更大,不代表模型效果更好。 在曾国洋看来:如果大模型作为实现AGI的关键路径,但成本却无比高昂,那么即使实现了AGI,但AGI比人还贵、那也没太大意义,所以要降低模型成本。对于大模型落地来说,效率是很个关键的问题,需要控制成本来达到更好的效果,这样才能去扩展大模型的应用边界。 不久前举办的鲲鹏昇腾开发者大会2024上,曾国洋在演讲中表示:“面壁智能持续引领高效大模型路线,推动大模型高效训练、快步应用落地,以更快速度,更低成本,提供最优智能实现方案。” 首先要解决的就是高效训练。 公开数据显示,OpenAI训练GPT-3的成本约为430万美元,到了GPT-4已经上涨到7800万美元,谷歌Gemini Ultra在计算上花费了1.91亿美元……比大模型能力更早指数性增长的,居然是大模型的训练成本。 该怎么提升大模型训练效率呢? 面壁智能在2024年初的一篇论文中提出了思路:如果大模型还未训练出来时就能预测性能大约在什么水平,可以先通过小模型做实验、调参数,再按照相同的数据配比、数调整等方法训练大模型。 其实在2023年,面壁智能就已经开始探索高效的Scaling Law,用小十倍参数模型预测大十倍参数模型的性能,并且取得了不错的成绩: 旗舰端侧基座模型MiniCPM用2.4B的参数量,在性能上越级超越Mistral-7B、Llama2-13B乃至更大的全球知名模型;旗舰端侧多模态模型MiniCPM-V刷新了开源模型最佳OCR 表现,部分能力比肩世界级多模态模型标杆 Gemini-Pro 与 GPT-4V。前两天发布的端侧最强多模态模型MiniCPM-Llama3-V 2.5 ,超越多模态巨无霸 Gemini Pro 、GPT-4V实现了「以最小参数,撬动最强性能」的最佳平衡点。“大”并非是唯一选项,小模型也可以实现同样的效果。 面壁智能的“高效”,不单单体现在训练环节。 在部署方面,面壁智能是模型厂商中最早提出“端云协同”的,通过协同推理的方式降低降低推理部署的成本、时延和能耗,让大模型可以跑在手机、电脑、汽车、音箱等低功耗的芯片。 以及大模型驱动的群体智能技术体系,包含智能体通用平台AgentVerse、技术协同同台、应用层面的多智能体协作开发框架ChatDev,帮助开发者打通大模型落地应用的最后一公里。 03 全流程加速大模型应用升级 基于丰厚原创技术底蕴,并匹配大模型这一系统工程的本质要求,面壁打造了一条从数据原材料、到模型制作过程中精湛训练与调校工艺环环相扣的全高效生产线。 譬如面壁智能独家的“沙盒实验”,让小模型验证大模型性能成为可能;Ultra对齐技术,可以有效大模型的综合表现;现代化数据工厂,形成从数据治理到多维评测的闭环;高效的Infra,为面壁智能的大模型训练打好了地基;训练框架BMTrain、推理框架BMINF、压缩框架BMCook和微调框架BMTune构成工具套件平台,可在降低90%的训练成本同时,将推理速度提升10倍。 在创立之初,面壁智能就开始将大模型和国产软硬件基础设施做适配,想要从全流程加速大模型应用升级。直接的例子就是面壁智能和昇腾AI在软硬件的深度合作。 比如面壁智能基于昇腾基础软硬件完成了CPM-BEE大模型和BMTrain加速框架的迁移,通过两个关键步骤实现了BMTrain和昇腾的适配,通过亲和融合算子替换实现了大模型的性能提升,最终让CPM、llama等模型的集群训练性能与业界持平。 再比如基于昇腾底座采用MindSpore框架开展了深入的创新研究。在微调方面,面壁智能实现了多个下游任务Sora在使用不超过1%的模型参数微调时,仍然能够超越其他微调方式;针对推理场景,面壁智能通过量化、蒸馏、剪枝等技术的灵活组合,在多项任务上压缩至1/3时,模型精度仍能保持99%。 国内的大模型团队中,同时从算力、数据、算法切入的团队并不多见,为何面壁智能选择和昇腾AI一起,全面系统地推进大模型上下游工程? 曾国洋曾在媒体采访中这样说道:“我们追求的是,在同样的时间、同等参数量的条件下,实现更优的Scaling Law。当模型的效率优化到一定程度的时候,如果要继续精进下去,就需要数据、算力与算法多者结合。” 这种不给自己设限的挑战精神,所带来的不单单是效率,还有通往AGI道路时的底气。 不少大模型团队为算力卡脖子问题焦虑的时候,曾国洋态度相当镇定:“对于比较早开展大模型研发的团队来说,国产化适配基本上都已经完成了,因为做的早嘛。其实国产化算力的差距没有想象的那么大,特别是像昇腾这些设备,目前已经达到了大规模商用的水平。” 和面壁智能一样,昇腾AI也在全流程使能大模型创新落地,从大模型的开发训练到推理部署。正是这些同道人的相向而行,让大模型开发不再是复杂的超级工程,每个开发者都能参与其中。 04 写在最后 大模型市场竞争激烈,技术迭代日新月异,但曾国洋连续几个月工作都不觉疲惫,用他自己的话说“因为我很相信 AGI 会实现。” 这正是年轻人的“可爱之处”,他们有挑战新事物的勇气,也有躬身入局的行动力,更重要的是,他们还是一群有理想的开发者。就像曾国洋在创办OpenBMB开源社区的初心:帮助千千万万的开发者降低门槛,让大模型飞入千家万户。面壁智能无疑是理想和初心的延续。相关推荐: 从算力卷到价格:厂商大模型之争的背后伴随人工智能技术的加速演进,AI大模型已成为全球科技竞争的新高地。 国内各大科技巨头跟随热潮纷纷投身大模型研发,不过短短两年,厂商大模型如雨后春笋,开启了“百模竞争”时代。 随着AI技术的不断进步和研发成本的降低,AI产品的制造成本和运营成本也在逐渐降低。而厂商们从去年的卷参数,卷性能,现在又卷到了价格。 最近,一股降价潮席卷了大模型届。 01 大模型降价潮, 谁加入了混战 在这个五月,国内外各大厂商纷纷加入这场没有硝烟的战争。 国内方面,字节、阿里、腾讯等科技巨头纷纷加入混战,字节跳动的豆包大模型率先降价,其32K主力模型在企业市场的定价仅为0.0008元/千Tokens,号称比行业价格便宜99.3%。 随后,阿里云也宣布旗下9款通义大模型全面降价,其中通义千问主力模型Qwen-Long的API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅高达97%。百度更是直接祭出免费大招,将ERNIE Speed、ERNIE Lite两款大模型免费开放给用户使用。 除了这些科技巨头外,还有一些AI创企和垂直赛道头部玩家也加入了这场价格战。 例如,智谱AI宣布将入门级大模型GLM-3-Turbo的价格从0.005元/千tokens降低到0.001元/千tokens;科大讯飞则宣布讯飞星火API能力正式免费开放,其中讯飞星火Lite API永久免费开放。 从大幅降价到直接免费使用,五月这场价格战可谓是来的突然。 02 大模型圈此次降价潮, 原因何在? 这场价格战的背后,是大模型技术快速发展和市场竞争加剧的结果,是各大科技巨头在AI领域争夺注意力的开端。 随着人工智能技术的不断发展,大模型成为了行业发展的重要方向。然而,由于技术门槛高、研发成本大等原因,大模型市场一直存在着较高的壁垒。为了打破这一壁垒,各大科技巨头纷纷加大投入,通过自主研发、合作开发等方式推出自己的大模型产品。 然而,随着行业内卷竞争的加剧,各大厂商在性能、参数等方面的竞争已经趋于饱和。在这种情况下,价格战成为了各大科技巨头争夺市场份额的重要手段。 通过降低价格,厂商们可以吸引更多用户和开发者使用自己的大模型产品,从而扩大市场份额和影响力。同时,价格战也可以促进整个行业的进步和发展,推动更多企业和个人参与到大模型研发和应用中来。 不少厂商在宣布大模型降价时提到了技术进步带来的成本下降。百度董事长兼首席执行官李彦宏曾表示,与一年前相比,百度旗下文心大模型的推理性能提升了105倍,推理成本则降到了原来的1%。字节跳动旗下火山引擎总裁谭待也提到,可以通过混合专家模型、分布式推理等技术手段,优化大模型的推理成本,不会走用亏损换收入的道路。 猎豹移动董事长兼 CEO、猎户星空董事长傅盛评价表示,“短期来看,大模型的性能遇到了瓶颈,谁也甩不开谁,谁也拿不出杀手铜,降低推理成本,降低售价成了现在每一家的高优先级任务。” 阿里云资深副总裁刘伟光表示:“我们希望通过本轮大幅降价,加速Al应用的爆发,让更多企业能够享受到Al技术带来的变革和价值。” 03 是噱头, 还是大势所趋 从某种程度上而言,这场价格战似乎带着几分噱头的色彩。 虽然厂商大多以技术进步为原因解释降价的动作,但也有行业专家之处大模型成本下降的幅度远没有降价的幅度大,比起成本,降价更多的原因在厂商的商业向策略的变化,目的。另外,细观此次各大模型厂商的调整策略,降价主要针对的仅仅是低并发用户,而高并发的定价依然保持原样,未有丝毫降低。对于B端用户来说,许多核心业务都需要高并发量的支持,因此,API的降价可能并不能为他们带来实质性的经济优惠。 但从更宏观的视角来看。随着算力和算法的飞速发展,大模型处理数据和进行推理的成本不断降低的趋势是不会变的。这一变化使得商品或服务的定价有了下调的可能性。基于这一逻辑,我们可以预见,降价趋势在未来很可能会持续下去。 而且对于小型开发者来说,模型 API 调用价格下降是一种利好,可以帮助AI领域应用落地。阿里云智能集团资深副总裁刘伟光就表示,阿里云这次大幅降低大模型推理价格的目标是希望推动AI应用的爆发,加速商业落地的进程。 大模型降价,是噱头,也是AI领域发展的需要,更是厂商们”百模大战“内卷的大势所趋。 回到十年前移动互联网时代,那时的APP层出不穷,给人们带来了极大的便利和乐趣。 如今,随着大模型降价的风潮和AI技术的不断发展,我们有理由相信未来将有更多创新性的AI应用涌现出来。
原创文章,作者:admin,如若转载,请注明出处:http://readdaily.cn/other/132490.html