VR52——国内最大的VR&AR头戴式眼镜数据库

热门VR眼镜

热门VR眼镜对比

Meta Quest 3S详细参数

AR&MR游戏资讯

更多

PC硬件资讯

更多

Meta Quest 3S详细参数

  • Meta AI眼镜新增营养追踪、WhatsApp摘要、屏幕录制等功能

    2026-04-05

    Meta宣布其智能眼镜即将推出一系列新的软件功能。营养追踪Meta表示,其MetaAI智能手机应用"很快"将增加一个食物日志功能,通过任何一款Meta智能眼镜发出"简单的语音提示或快速拍照",即可向其中添加内容。Meta公司称,MetaAI将从您的提示或照片中"提取关键营养细节",并更新食物日志。"随着时间的推移,您的食物日志将提供越来越个性化的见解,使其更有用,帮助您做出更健康、更明智的选择",Meta宣称。该公司表示,该功能将很快面向美国18岁以上的用户推出,并将于"今年夏天晚些时候"登陆MetaRay-BanDisplay眼镜。WhatsApp摘要Meta的无显示屏眼镜可以根据您的需要朗读WhatsApp消息,您也可以通过向MetaAI发出指令来发送WhatsApp消息。这可以是文本消息(经转录)、语音消息或拍摄的图片。在MetaRay-BanDisplay上,还有一个应用可以可视化地滚动和阅读WhatsApp消息,如果您愿意,还可以看到消息通知在视野中弹出。对于偶尔的消息来说,这都没问题,但在您日常活动中,对于快速移动的群聊来说就太多了。Meta表示,它很快将向"早期访问"计划推出一项名为"WhatsApp摘要"的MetaAI功能。通过询问"嘿Meta,帮我总结一下我的消息",您可以获得聊天摘要,或者您可以提出具体问题,例如"Jamie晚餐建议吃什么?"。该公司声称,所有这些都在"设备上处理",并且聊天内容"通过端到端加密保持私密"。新的实时翻译语言--无需下载?大约一年来,Meta的智能眼镜一直能够在英语、法语、意大利语和西班牙语之间翻译语音。要激活此功能,您只需说"嘿Meta,开始实时翻译"。在无显示屏眼镜上,您可以通过扬声器听到附近人们说的话,并通过文本转语音技术翻译成您自己的语言。在Ray-BanMetaDisplay上,您会看到它以文本形式显示在屏幕上。同时,与您交谈的人可以在MetaView智能手机应用上看到您的话被翻译成他们的语言的文本。现在,Meta已为参与"早期访问"计划的用户添加了印地语、阿拉伯语、俄语、瑞典语和芬兰语,并表示到夏天将支持20种语言,包括普通话、韩语和日语。该公司还暗示,您将不再需要提前下载语言包。目前,您必须提前将所需的特定语言对下载到眼镜中。这一改变将显著降低当前翻译体验中的障碍。显示屏录制我在评测MetaRay-BanDisplay时遇到的一个主要问题是无法向您(我们的读者)展示我所看到的内容。当然,您可以将摄像头对准镜片,但波导是为人类眼睛设计的,而不是为传感器设计的,而且我从未见过任何尝试能准确描绘我所看到的内容。这些相机捕捉技术也无法实际佩戴眼镜。Meta表示,在今年春天即将到来的更新中,MetaRay-BanDisplay的用户将最终能够录制显示屏内容,输出内容将显示为叠加在相机视图上,并包含任何播放的音频。这将使记者和网红更容易向他们的受众展示MetaRay-BanDisplay,普通买家也更容易告诉朋友它的使用感受。目前唯一关于MetaRay-BanDisplay的屏幕录制视频来自Meta本身,它似乎具有内置的屏幕录制功能。美国任意城市的步行导航在我们对MetaRay-BanDisplay的评测中,我们严厉批评了步行导航功能仅在28个特定城市的市区内有效这一事实。Meta表示,该功能将于5月扩展到"美国所有城市"。美国政府并没有官方定义什么是"城市",因此Meta的此说法尚不明确。也不清楚这是否仅指市区还是大都市区。例如,尽管纽约在列表中,但我无法在肯尼迪机场附近使用步行导航,该功能仅在曼哈顿可用。我们5月份就会知道答案。考虑到该公司在1月份无限期推迟了在国际上推出MetaRay-BanDisplay的计划,理由是需求意外高涨和供应限制,因此导航功能扩展仅限于美国是合理的。神经手写功能广泛推出今年1月,Meta开始向美国MetaRay-BanDisplay用户的"早期访问"计划推出神经手写功能。该功能允许您使用食指在桌面或大腿等表面上描摹字母,通过Meta神经腕带的表面肌电图(sEMG)传感器感应,逐个字母输入文本。在"早期访问"推出时,该功能仅限于WhatsApp和Messenger。现在,Meta表示它将在"未来几周"向"所有人"推出,并且还将支持Instagram以及原生iOS和Android消息应用。

  • Google Vids 进行了重大改版,允许用户自由更改其 AI 虚拟形象的外观和服装

    2026-04-05

    Google为其视频创作工具「GoogleVids」添加了多项利用AI技术的新功能,其中包括由视频生成AI模型Veo3.1驱动的高质量视频生成功能。只要有Google账号即可免费使用,用户可以通过文本提示词或照片来创建视频。什么是GoogleVids?GoogleVids是一款利用Gemini技术的协作型视频制作工具。它能根据提示词或文件自动生成可编辑的视频大纲。工具内还准备了丰富的模板和库存媒体素材,即便是没有视频制作经验的新手也能轻松上手。目前,该工具不仅包含在GoogleWorkspaceBusiness/Enterprise的所有版本中,使用GoogleAIPro和GoogleAIUltra订阅的个人用户也可以使用。本次更新的核心亮点AI虚拟替身:面向GoogleAIPro和Ultra订阅用户,Veo3.1新增了AI虚拟替身功能。用户可以更改替身的外观和服装,并将其放置在特定场景中。该功能还支持让替身与用户上传的商品或道具等物体进行直接互动。定制背景音乐:本次更新还增加了由音乐生成AI模型「Lyria3」及「Lyria3Pro」驱动的定制音乐生成功能(面向GoogleAIPro和Ultra订阅用户)。用户可以根据视频的氛围生成从30秒的短片到3分钟的完整音轨。浏览器协作与一键发布:引入了面向所有用户的浏览器协作工具。通过新推出的Chrome扩展程序「GoogleVidsScreenRecorder」,用户可以直接在网页浏览器上录制屏幕和摄像头画面。此外,还新增了将成品视频直接发布到YouTube的功能,省去了下载和重新上传的繁琐步骤。GoogleVids可以通过访问「vids.new」开始使用。

  • visionOS 26.4 正式发布:注视点串流 + 空间音频升级,Vision Pro 向专业模拟场景再进一步

    2026-03-30

    Apple本周正式推送visionOS26.4更新,为VisionPro带来两项关键能力升级:VR注视点串流与混合现实空间音频的环境记忆优化。这两项改进虽面向开发者底层,却将显著提升高保真VR/MR应用的性能与沉浸感。注视点串流:高效传输,聚焦视觉焦点此次更新的核心是注视点串流(FoveatedStreaming)--需注意,它不同于"注视点渲染"(FoveatedRendering),但二者可协同工作。注视点渲染:由主机GPU对用户当前视线区域进行更高分辨率渲染;注视点串流:则是在视频流传输阶段,对视线中心区域分配更高画质与更低压缩率,周边区域则适度降质以节省带宽。由于头显内置视频解码器存在分辨率与码率上限,该技术能有效优化有限带宽下的主观画质。类似机制已被Valve用于其SteamFrame无线串流方案。值得注意的是,Apple此次提供的是一套低层级、主机无关的框架,理论上任何PCVR串流服务均可接入。为加速落地,Apple与Nvidia深度合作,在CloudXRSDK中率先实现支持(尽管名为"Cloud",但同样适用于本地PC)。更关键的是,这是visionOS首次向开发者开放"粗略视线区域"信息。出于隐私保护,Apple历来不提供精确眼动数据,仅在交互时(如捏合手势)告知"用户注视了哪个UI元素"。而新API则允许串流主机据此动态调整渲染与编码策略,实现端到端的注视点优化。目前,已有多个重量级应用宣布支持:《X-Plane12》与《iRacing》:推出专用visionOS客户端,自动连接本地PC,通过计算机视觉对齐实体外设(如方向盘、操纵杆),并在MR中透视叠加;AutodeskVRED:已上线沉浸模式,为起亚、宝马、沃尔沃、Rivian等车企提供高保真3D资产串流;ClearXR(独立开发者项目):支持通过TestFlight串流任意OpenXR游戏,并启用注视点串流。⚠️限制:NvidiaCloudXRSDK仅支持Ada(RTX40系列)及Blackwell(RTX50系列)架构GPU。空间音频升级:记住房间的"声音性格"VisionPro自发布起便搭载AudioRayTracing技术,可扫描房间材质与结构,实现物理精确的声音反射与混响。在visionOS26.4中,系统now会存储并记忆常用空间的声学特征。这意味着用户再次进入同一房间时,空间音频无需重新走动校准,即可快速加载完整的声场模型,提供更连贯、真实的听觉沉浸体验。

  • 用小行星拯救宇宙!《Oh My Galaxy!》成 Quest 平台新晋家庭友好型佳作

    2026-03-27

    由NearLight开发、nDreams发行的全新动作解谜游戏《OhMyGalaxy!》已于2026年3月26日正式登陆MetaQuest平台。这款定价仅9.99美元的轻量级作品,凭借极简机制、精准操作与可爱的宇宙设定,在VR与MR模式下均展现出令人上瘾的玩法魅力。弹射、引力与爆炸:简单机制下的深度乐趣在《OhMyGalaxy!》中,玩家扮演宇宙守护者,通过"弹弓式"操作发射小行星,击毁威胁星球与卫星的敌对陨石。左手定位发射器,右手拉弓瞄准并释放--整个过程直观流畅,支持手柄操控与全手势追踪双模式,后者甚至设计了巧妙的交互逻辑:例如发射分裂型陨石后,握拳再张开手掌,即可触发多向爆裂效果。游戏关卡巧妙融入行星引力场、反弹垫等物理机制,使弹道轨迹充满变数。随着进程推进,玩家将解锁多种特殊弹药:如可分裂为多球的"子母弹"、引发大范围爆炸的"冲击弹"等,持续刷新策略维度。VR沉浸宇宙,MR融入客厅本作同时支持VR与MR模式:在VR中,玩家置身于绚丽的深空场景中心;而在Quest3/3S的MR模式下,星球、陨石与爆炸特效会直接叠加至真实家居环境--孩子可以在餐桌旁"拯救月亮",或在沙发前引爆一颗小行星。值得注意的是,Quest2仅支持VR模式。极简设计,纯粹乐趣《OhMyGalaxy!》最突出的特质在于其"去冗存精"的设计理念。没有复杂的菜单、冗余的系统或强制剧情,一切聚焦于核心玩法本身。音乐轻快悦耳,画面色彩明丽,操作响应精准,整体体验高度打磨。更难得的是,它是一款真正适合家庭共享的VR游戏。短短15分钟即可完成几关挑战,孩子能轻松上手,家长也能从中获得解谜快感。正如开发者所愿,它不索取太多时间,却回馈大量快乐。目前,《OhMyGalaxy!》已在MetaHorizonStore上线,售价9.99美元,支持Quest2(VR)、Quest3与Quest3S(VR/MR)。

  • Ray-Ban 智能眼镜再添两员:Meta 新品“Scriber”与“Blazer”即将登场

    2026-03-27

    据本月早些时候提交给美国联邦通信委员会(FCC)的文件显示,Meta与其硬件合作伙伴EssilorLuxottica正在为两款全新智能眼镜做上市准备。这被视为双方在智能穿戴领域持续加码的重要信号。FCC文件曝光新命名:Scriber与Blazer科技媒体人JankoRoettgers在其通讯《Lowpass》中率先披露,FCC文件中明确列出了两个新设备名称:"Ray-BanMetaScriber"与"Ray-BanMetaBlazer",并标注为"量产机型"。这一表述通常意味着产品已进入发布前最后阶段。回顾历史,过去三代Ray-Ban智能眼镜均在FCC提交后不到一个月内正式发售,此次节奏或如出一辙。此外,两款新品型号分别为RW7001与RW7002,与现有产品线完全不同,进一步佐证其属于全新硬件。尽管FCC文件未包含外观图片或详细功能描述,但提到了配套充电盒的测试信息--这一配件自初代起便是该系列标配,暗示新品仍将延续便携充电设计。网络规格透露技术迭代线索值得注意的是,两款设备在测试中使用了Wi-Fi6的U-NII-4频段(5.9GHz),而Meta去年发布的高端型号(如带抬头显示的MetaRay-BanDisplay)采用的是Wi-Fi6E(6GHz频段)。U-NII-4并非Wi-Fi6E的标准频段,这一差异可能表明新品定位更偏向主流市场,或在射频设计上有所调整以适配不同地区的法规要求。战略重心转向AI与智能眼镜此次新品筹备正值MetaRealityLabs部门战略大调整之际。今年1月,公司裁撤了该部门至少10%的员工,并明确将资源向AI与智能眼镜倾斜,同时大幅削减第一方VR内容投入。市场表现也印证了这一转向的合理性:EssilorLuxottica今年初披露,2025年全年售出超700万副智能眼镜,销量几乎相当于此前所有年份总和的三倍。Ray-Ban与Oakley系列(包括OakleyMetaHSTN、Vanguard及带显示屏的高端款)已成为消费级AI眼镜的标杆产品。随着Scriber与Blazer的临近发布,Meta与EssilorLuxottica有望进一步巩固其在"AI+可穿戴"赛道的领先地位。

  • 头显眼镜对比
    清除所有