近日,Valve通过官方博客披露了旗下三大硬件产品线的最新进展--涵盖Steam手柄、Steam主机及VR设备SteamFrame。尽管面临内存、存储等核心组件的供应短缺挑战,团队明...
Meta正通过其公共测试通道(PTC)向部分用户推送HorizonOSv85的预发布版本。作为Quest系列VR头显的系统更新测试渠道,PTC允许用户提前体验即将上线的功能--尽管部分功...
Meta近日宣布,Quest平台即将推送v85版本系统更新,对用户界面与内容发现机制进行重大调整。其中最核心的变化是:逐步淘汰原有的"HorizonFeed"社交信息流,并引入全新的...
法国XR初创公司LynxMixedReality正式公布其新一代独立式MR头显--Lynx-R2。作为2021年发布的R1的全面升级版,R2不仅在光学、算力和传感器方面实现跃进,更以开源硬件...
在CES2026上,光学与XR制造巨头歌尔股份(Goertek)悄然发布了一款令人瞩目的超轻量级MR头显参考设计。尽管歌尔在消费端知名度不高,但它却是全球XR行业的"隐形冠军"--为...
模拟 | 教育 | 工具
模拟 | 教育 | 探索
休闲 | 模拟 | 益智
益智 | 解谜
益智 | 休闲 | 射击
冒险 | 解谜 | 剧情
RPG | 冒险 | 模拟
冒险 | 解谜 | 休闲 | 益智 | 策略
GoogleAndroidXR团队近日宣布推出一套面向开发者与普通用户的全新工具,旨在通过Gemini多模态AI模型,将自然语言创意直接转化为可交互的扩展现实(XR)内容。这一能力已在Gemini网页应用中的Canvas功能中实现原型验证,并标志着Google正加速推动"沉浸式计算"的平民化。从生物模拟到彩虹画笔:AI生成XR内容落地为验证技术可行性,Google团队首先构建了一个沉浸式生物学模拟:通过Gemini建模血细胞间的动态交互,并利用WebGL与Three.js进行可视化渲染,再借助WebXRAPI将其无缝转换为XR体验。用户可在亚细胞尺度中穿行观察,亲身体验AI所构建的"完整、可交互XR场景"。基于此探索,Google开发出一套高效原型工具,使用户能以远超传统流程的速度创建3D交互模型。要使用该功能,目前需配备三星GalaxyXR头显,并接入Gemini3Pro多模态AI模型。XRBlocks:可复用的AI专家,赋予AR物理直觉核心创新在于名为"XRBlocks"的Gem(Gem是Gemini的定制化版本,相当于针对特定任务的可复用AI专家)。用户既可直接调用预置的XRBlocksGem,也可通过下载"XRBlocksultra-prompt"自行构建专属版本。据Google介绍,该提示词赋予Gemini对现实世界空间与物理规则的高级感知能力,使其生成的AR对象具备更真实的重力、碰撞与响应逻辑。操作流程极为简洁:在GalaxyXR头显的Chrome浏览器中打开Gemini,新建对话并选择对应XRGem,进入Canvas界面后即可开始语音或文字输入。更进一步,用户还可让Gemini在XR环境中嵌入GeminiLive--实现边体验、边语音对话、边实时修改,全程无需退出沉浸状态。左图:一位资深XR工程师一天内创建出的体验。右图:根据谷歌的说法,Canvas在Gemini网络应用程序中不到一分钟就创建出的体验。示例即生产力:三句话看懂未来创作方式Google提供了多个直观示例,展示自然语言如何驱动XR内容生成:"制作一支能在3D空间中画出彩虹的笔""生成一群我一碰就破的泡泡""折一只纸鸟能在房间飞几秒,然后落在我手上;当我移动手,它又飞走并重复这一过程"所有生成内容最终以可分享的网页链接形式输出,便于传播与协作。此举不仅降低了XR内容创作的技术门槛,更预示着一种"所想即所得"的下一代人机交互范式正在成型--未来,构建虚拟世界或许不再需要代码,只需清晰的想象力。谷歌表示,用户创作完成后,作品会变成可以分享的网络链接。要了解更多关于Gemini的信息并浏览XRBlocks演示示例地址:https://xrblocks.github.io/docs/samples
HTC旗下Web3内容分发平台VIVERSE今日正式推出VIVERSE创作者合作计划,一项以"真实用户互动"为核心的绩效奖励机制。该计划旨在为游戏开发者、视频创作者、Web应用构建者及数字艺术家提供一条透明、低门槛、去广告化的变现路径--不再依赖传统广告曝光量,而是根据观众的实际观看时长与互动深度直接向创作者付费。按"真实观看"结算:30秒即算有效互动根据HTC官方说明,VIVERSE将"一次有效观看"定义为用户与内容互动至少30秒。创作者的收益基于独立观看人数与总互动时长计算,一旦累计收益达到50美元门槛,即可立即获得基于观看数据的实时分成。这一模式直击当前创作者经济的核心痛点。HTCVIVERSE增长负责人AndranikAslanyan指出:"在现有在线生态中,创作者收入往往取决于广告是否被展示--而广告库存、屏蔽插件、地域限制和需求波动,常导致承诺的CPM远低于实际到账金额。VIVERSE则通过为'真实互动'付费,彻底消除这种不确定性。"创作者权益明确:内容归属不变,AI训练零使用尤为值得注意的是,VIVERSE明确承诺:不会将创作者上传的内容用于任何AI或机器学习模型的训练,且所有知识产权100%归属于原创者。这一立场在当前AI滥用内容争议频发的背景下,成为吸引高质量创作者的关键优势。此外,该计划具备多项友好设计:非独家协议:创作者可同时在其他平台发布相同内容;一键分发:支持通过URL分享或嵌入第三方网站(iframe形式),无需用户安装;全格式兼容:无论使用Unity、Unreal还是自研引擎,各类沉浸式内容均可接入;零粉丝门槛:无关注数或专属工具要求,审核通过后即可发布;数据透明:提供独立访客数、互动时长等核心指标,未来还将上线更深度分析功能。开发者实测:专注创作,基建交给平台已入驻VIVERSE的沉浸式体验《Frustrain》执行制作人GregoryMolodtsov表示:"在VIVERSE上发布让我们获得基于观看量的稳定激励,同时能跨平台快速验证创意,无需陷入技术适配泥潭。平台负责基础设施,而观众洞察帮助我们规划后续内容扩展。"目前,VIVERSEPartnerProgram已开放免费注册,创作者可访问www.viverse.com/partner即刻加入,开启基于真实互动的沉浸式内容变现之旅。
2026年2月18日,EpicGames宣布正式收购德国图宾根的AI初创公司Meshcapade。此次收购不仅将Meshcapade团队并入Epic的AI研究部门,还同步宣布将在图宾根著名的AI研究集群"CyberValley"设立新办公室,进一步深化其在欧洲的人工智能与3D内容生成领域的投入。基于SMPL:打造学术与工业界通用的数字人体标准Meshcapade成立于2018年,源自马克斯·普朗克智能系统研究所(MaxPlanckInstituteforIntelligentSystems),核心围绕该所开发的SMPL人体模型展开技术演进。SMPL是一个基于数千份3D人体扫描数据训练而成的参数化3D人体模型,因其高精度、轻量化和可驱动性,已成为学术界与工业界在3D人体表示领域的事实标准。Meshcapade在此基础上,开发出无需专业动捕设备、仅凭普通视频即可重建3D人体姿态与动作的技术。其系统不仅能还原肢体运动,还能捕捉表情、手势等非语言行为,赋予数字人更自然、更具表现力的动作细节。联合创始人NauraMahood曾表示:"我们的使命是让数字人的创建变得更简单、更富表现力,也更贴近创作者。"与MetaHuman融合,构建下一代实时数字人生态EpicGames自推出MetaHuman框架以来,已为影视、游戏及实时3D项目提供高度逼真的数字人创建工具--通过MetaHumanCreator,用户可在数分钟内生成具备真实面部与身体细节的虚拟角色。此次收购后,Meshcapade的SMPL驱动技术有望深度集成至MetaHuman与UnrealEngine中,显著提升数字人在动作生成、视频驱动动画及AI驱动交互方面的能力。此举标志着Epic正从"静态高保真建模"向"动态智能驱动"迈进,为未来元宇宙、虚拟制片、AINPC及沉浸式社交场景提供更完整、更易用的数字人解决方案。
随着Gemini智能眼镜发布的临近,Google正式推出其专属界面设计语言--Glimmer。这一系统不仅适用于即将上市的透明抬头显示眼镜,也为未来真正的AR设备奠定交互基础。Glimmer并非单纯视觉风格,而是一套针对小屏、透明、低功耗、高干扰环境等硬性约束所构建的完整设计哲学。小屏≠小体验:在真实世界中"短暂聚焦"与传统矩形屏幕或VR的全景画布不同,智能眼镜的显示区域极其有限,且始终与现实环境共存。Google强调,这类设备不是供用户长时间凝视的"屏幕",而是需要主动聚焦、快速获取信息后立即回归现实的瞬时交互媒介。因此,Glimmer倡导"一瞥即懂"的布局:简化菜单层级,减少视觉负担,确保用户能在几秒内完成信息摄取。正如Google在去年I/O大会演示的原型机所示,界面应如现实世界的注释,而非覆盖层。GoogleGlimmer建议在深色背景上显示浅色内容。透明显示下的色彩与可读性挑战由于显示内容叠加在动态背景上,颜色表现面临独特难题。Google明确建议:避免高饱和度,优先保持亮度强度。深色在透明屏幕上极易"消失",而浅色或高亮元素更易被识别。在文字呈现上,Glimmer对可读性提出严苛要求:字号需以"手臂长度清晰可见"为基准;屏幕边缘光学畸变严重,分辨率受限,传统移动端的宽高比假设不再适用;禁用密集列表与小字号文本,内容应精简、关键词突出;推荐使用更高对比度、更粗字重及宽松字间距,官方指定SansFlex字体为优选方案。在透明屏幕上,粗体字更容易阅读。功耗即设计:每一像素都要"省着用"受限于轻量化需求,智能眼镜的电池与散热空间极为紧张。Glimmer将功耗纳入核心设计原则:优先使用线框图标而非实心填充,以减少光晕并降低能耗;控制点亮像素数量,采用瞬时消息替代常驻通知;限制动画复杂度,优化运动逻辑,减轻热负荷。透明显示屏更适合使用亮度更高、色彩饱和度更低的图形。Glimmer的本质,是在物理极限中寻找体验最优解--它是为了让数字信息在真实世界中恰到好处地存在。对于开发者而言,遵循Glimmer意味着从"做功能"转向"做克制",在极简中实现高效。更多细节可参考Google官方发布的《JetpackComposeGlimmer指南》。
智能眼镜与AR技术提供商Vuzix近日宣布推出全新产品线--VuzixSolutions,一套面向企业用户的集成化智能眼镜部署套件。该方案旨在简化一线员工的AR设备部署流程,加速实现"免手持"作业效率,并以明确的高价值场景为切入点,降低企业数字化转型门槛。首发套件聚焦远程协助,深度适配Teams与ZoomVuzixSolutions的首个产品名为"RemoteAssistbyVuzixSolutions",专为VuzixLX1或M400智能眼镜打造,原生支持MicrosoftTeams和Zoom视频协作平台。与传统为手机或电脑设计的视频会议软件不同,Vuzix针对其眼镜硬件开发了优化版应用,提供免手持控制、语音指令触发、一键接通等简化交互功能,确保工人在双手操作设备或工具时仍能顺畅发起远程协助请求。Vuzix企业解决方案总裁ChrisParkinson博士指出:"虽然Vuzix智能眼镜具备高度通用性,但大多数企业客户通常从一个高影响力的具体用例开始部署。VuzixSolutions正是为了消除初期落地的复杂性,提供一条快速、可预期的价值实现路径。"为何是远程协助?工业场景的天然契合点远程协助被广泛视为可穿戴技术在企业端最成熟的应用场景之一,尤其适用于现场服务、物流分拣、制造装配、工业维修等"双手忙碌"的环境。通过第一视角视频流,后方专家可实时查看现场画面、标注指导、共享文档,大幅缩短故障处理时间并减少差旅成本。Vuzix强调,其部署套件无需复杂配置或长时间培训,既可作为即开即用的独立解决方案,也可作为企业后续扩展更多AR工作流(如数字工单、AI质检、远程巡检等)的起点。目前,"RemoteAssistbyVuzixSolutions"已通过Vuzix官网及授权渠道正式发售。公司同时透露,未来数月将陆续推出针对其他核心业务流程的专用套件,进一步丰富其企业AR解决方案矩阵。