Apple Camera

用一种简单的改变完全改造苹果的MacBook系列电脑
我对于2023年10月苹果停产13英寸MacBook Pro与众人一样感到惊讶,但当时这绝对是一个愉快的发现,而不是一个让人不快的震动。但是现在呢?有些事情我希望苹果能做得不一样。 看着苹果如今的MacBook Pro产品线,它几乎是完美的。苹果如何才能实现那种近乎完美的状态呢?也许它应该考虑取消M3的MacBook Pro。我知道,我知道,它刚刚发布,但请相信我——它需要离去。 可以肯定的是,14英寸的M3 MacBook Pro与其取代的旧款13英寸模型相比有了很大的改进。与前代产品相比,它配备了更高级的XDR显示屏,边框更窄,屏幕尺寸达到了14英寸。它的扬声器更好,接口更多,而且解决了困扰13英寸MacBook Pro的SSD限速问题。总而言之,苹果解决了一系列问题。 那么为什么我要说苹果应该放弃一台比前任产品好得多的笔记本电脑呢?嗯,在现在这个阶段它可能表现得相当好,但事情可能会迅速改变——事实上,只需几个月,即2023年M3 MacBook Air发布。届时,我们将再次面对一台显得非常不合时宜的MacBook Pro。 虽然取消13英寸MacBook Pro使产品线看起来更“专业”,但取而代之的M3 MacBook Pro也有许多缺点。一是它只能接一个外部显示器,而入门级别型号只配备了8GB内存。这已经够糟糕的了,考虑到其1599美元的起售价,但苹果升级内存的费用也是不菲。将一台只有8GB内存且只能支持一个外部显示器的笔记本电脑称为“专业”设备,感觉有点误导。 而且,M3 MacBook Pro在不久之后就会失去“专业”的光环。因为M3 MacBook Air只有几个月的时间就要发布了,一旦MacBook Pro和更便宜的MacBook Air采用相同的芯片,很多人只会选择更实惠的型号。 当然,M3 MacBook Pro和M3 MacBook Air之间的比较不会像在M2一代时那样明显,那时我们建议完全跳过13英寸MacBook Pro,直接购买MacBook Air。但是无论如何,M3 MacBook Pro的魅力必定会减少一些。
我在iOS 17中使用Apple的替代iPhone界面的经历
iOS界面已经成为iPhone的一部分已经有15年之久,但很多人不知道的是,苹果在iOS 17中引入了一种称为Assistive Access的新界面。这个功能是iPhone设置应用程序中辅助功能选项的一部分,旨在帮助缺乏信心和能力的用户与他们的设备进行交互。 要设置Assistive Access,用户需要打开辅助功能设置菜单中的专用部分。他们还需要设置一个Apple ID,并可以选择使用他们现有的安全方法或设置一个专门用于Assistive Access的新PIN码。 用户可以选择将他们的应用程序显示为列表或两列。虽然列表选项可以在屏幕上显示更多的应用程序,但网格格式使应用程序名称和图标更容易阅读。 在设置期间需要事先选择Assistive Access可用的应用程序,并在设置期间对优化和非优化的应用程序进行标注。一些应用程序,如Apple Music和通话应用程序,在设置期间可以限制其可访问的功能。 一旦打开Assistive Access,iPhone将以新的简化锁屏重新启动。应用程序要么具有重新设计的界面以适应新的布局,要么以窗口模式显示,屏幕底部有一个返回按钮。 Assistive Access限制了对App Store和设置应用程序的访问,但用户仍然可以通过电源按钮菜单调整亮度、文本大小、音量,启用飞行模式或暗模式,并通过发起紧急呼叫来实现。 尽管Assistive Access在辅助功能选项方面是一步向前的,但还存在一些限制。用户仍然需要对常规方式使用iPhone有一些熟悉度,而支持者可能会发现自己提供了比预期更多的技术支持。可定制性和更广泛的访问底层设置是许多人希望在未来更新中增加的功能。 尽管Assistive Access具有潜在的好处,却没有得到很多关注,很多人不知道它的存在。鼓励用户自己尝试Assistive Access,或向那些可能从中受益的人展示它。随着进一步的改进,Assistive Access可以实现让认知障碍者更容易独立使用iPhone的目标。
探索iPhone上LiDAR相机的多面性:6个创新应用
LiDAR功能是iPhone相机中一个有趣的特性。类似于安卓手机上的ToF技术,它通过向环境发射无形激光来检测物体的形状和距离信息。虽然LiDAR功能是苹果手机和平板电脑的专属特性,只在较新的iPhone和iPad型号上可用,但有几种有效利用这一功能的方法。 LiDAR的主要优势之一是它能够改善摄影,尤其是在低光条件下。搭载LiDAR的iPhone可以利用该传感器确定人物或物体的距离,并相应地调整自动对焦,从而在低光环境中实现更快速、更准确的对焦。 LiDAR还可以用于精确测量。用户可以利用iPhone上内置的测量应用程序利用LiDAR传感器对大型物体及其之间的距离进行高度精确的测量。这个功能对于DIY项目或者希望确定家具是否适合特定空间的场景非常有益。 此外,LiDAR也可以实现沉浸式增强现实(AR)游戏。像RC Club这样的游戏利用LiDAR传感器扫描用户的环境,并在屏幕上创建与现实世界互动的详细虚拟世界。虽然这项技术仍处于早期阶段,我们可以预期未来会有更多利用LiDAR的AR游戏。 LiDAR还可以帮助家居装饰规划。像Room Planner这样的应用程序利用LiDAR技术,让用户能够在家中可视化家具和家居装饰模型。这有助于用户在购买之前看到新家具的外观和安装情况,使装饰过程更加便利。 此外,LiDAR还可以用于扫描3D模型。像RealityScan这样的应用程序允许用户利用iPhone的相机和LiDAR传感器快速扫描真实物体,创建详细的3D模型。这可以为从事游戏开发或3D建模的专业人士或爱好者节省时间和资源。 最后,LiDAR还可以用于创建虚拟现实(VR)世界。通过使用LiDAR来创建一个真实位置的虚拟副本或者将三维世界进行映射,用户可以弥合虚拟和现实世界之间的差距。这对于各种用途非常有用,包括房地产游览或VR体验。 总的来说,LiDAR是一个强大的功能,扩展了iPhone相机的能力。从改善摄影到实现增强和虚拟现实体验,LiDAR为用户提供了增强创造力和工作流程的新可能性。
用5个创新的iPhone相机技巧给你的家人留下深刻印象的圣诞礼物
圣诞节的休闲时间非常适合进行摄影项目。而这个圣诞节,你不需要任何特殊设备,只需要口袋里的iPhone就能与你的家人一起创意摄影:从双重曝光到3D视觉效果,下面的相机技巧只需要iPhone就可以实现。 使用Spectre进行长曝光拍摄:从车辆的尾灯到布满烟花的天空,长曝光可以通过保持相机快门打开一段时间来进行“光之画作”。要在iPhone上进行这样的拍摄,你需要一个能手动控制快门速度的应用(或者至少给你这种假象)。有几款这样的应用可供选择,但Spectre是其中最强大的之一。 使用Luma AI捕捉3D场景:你不再需要特殊设备来捕捉精确的3D图像,只需要一部iPhone和Luma AI即可。这款完全免费的应用程序允许你记录物体或场景的3D图像,创建逼真的虚拟模型。 使用NeuralCam拍摄圣诞肖像:NeuralCam为你的节日肖像提供了即时升级。这款售价4.99美元的应用的AI背景模式可以让你以任意距离捕捉具有柔和背景的主题。 使用Snapseed创建双重曝光效果:有几款iPhone应用可以创建双重曝光效果,而Snapseed是我们最喜欢的之一。这是由Google开发的一款综合照片编辑器,它具有内置的双重曝光模式,可以轻松地合并图像。 使用PhotoPills捕捉完美的圣诞日落:如果你在冬季阳光明媚的地方庆祝节日,日落可能是节日家庭合照的完美背景。困难的部分在于准确地知道太阳在何时何地,然后做好准备。这就是PhotoPills的用途。售价10.99美元,它是这个列表中最昂贵的实验之一。但它也是最酷的之一。它实际上是太阳、月亮和星星的计划工具,通过显示每个天体在任何给定时间在你所在位置的位置,让你为照片做好准备。
iPhone 15 Pro Max 对决 Google Pixel 8 Pro:终极相机手机对决
自从iPhone问世以来,Apple一直以每一代产品进一步推动移动摄影技术为豪。iPhone 5s在当时是一个标杆,而双摄像头的iPhone 7 Plus是培养Apple计算摄影算法以理解物体模糊的基石。iPhone 11 Pro系列将Apple的手机迁移到了三摄像头配置。 与此同时,Google始终关注人工智能(AI)。每个爱好者都会告诉你,Pixel 8系列手机本身就是出色的手机,是智能手机未来将全部涉及AI的旗手。因此,Pixel 8 Pro展示了光学并非唯一因素——软件在改善摄影方面也起到了合理的作用。 然而,两款手机都不是特别便宜——Pixel 8 Pro的单一版本售价约为1.07 lakh卢比,而iPhone 15 Pro Max的起始售价为1.6 lakh卢比。在这样的定价下,每款相机都提供了哪些功能?它们是否有任何缺点?或者,这只是一个生态系统的选择问题? 主摄像头 在几乎所有光线条件下,iPhone 15 Pro Max和Pixel 8 Pro的处理细节程度几乎相当。Apple拍摄到更好的纹理和阴影深度,而Google的相机拍摄到更亮的图像,并且在主体周围的边缘更加清晰。两者在处理前景和背景模糊方面几乎无法区分差异,Pixel的光学模糊稍微好一些。 iPhone 15 Pro Max使用了一颗“新的”4800万像素主摄像头,从纸面上来说,这提高了照片中所期望看到的细节。然而,Apple的摄影算法重新设计了主相机拍摄照片的标准分辨率,从之前的1200万像素提升到2400万像素。与此同时,Google的Pixel 8 Pro继续将其5000万像素主摄像头拍摄的照片压缩和处理成1200万像素。
三星 Galaxy S24 Ultra 相机的惊人好处
三星Galaxy S24 Ultra相机的坏消息其实是好消息 三星Galaxy S24 Ultra引起了很大的关注,尤其是其相机功能。虽然相机方面有一些令人失望的降级,但这些变化实际上让人们对潜在的改进感到兴奋。主相机预计将配备稍微更新的当前三星ISOCCELL HP2传感器版本,而3倍光学变焦镜头可能保持不变。然而,10倍变焦相机预计将配备更大的传感器,尽管变焦长度将缩短到5倍。其他传感器,如超广角相机和自拍相机,看起来与Galaxy S23 Ultra相同。 坚持使用相同的传感器并专注于增强图像处理并不是前所未有的,苹果的iPhone相机采取了相同的做法。通过保持相同的传感器并专注于增强图像处理,苹果和三星都能够提高照片的质量并进行改进。三星粉丝可以期待更加真实的照片处理,远离过饱和的色彩,向更加自然和真实的外观转变。 预计人工智能将在Galaxy S24 Ultra相机中发挥作用,尤其是在场景优化方面。三星的场景优化软件结合AI功能,可以显著提高相机根据被拍摄对象选择合适设置的能力。三星之前在AI图像方面曾受到批评,特别是拍摄月亮的时候。然而,随着更好的AI技术,未来的软件可能会产生更准确和自然的结果。 总体而言,Galaxy S24 Ultra注定会在手机摄影方面提供更多选项和改进。用户可以期待增强的图像处理、更真实的照片输出以及AI在除了月亮以外的各种主题上的增强潜力。
如何在iPhone上拍摄3D视频的技巧
如何在iPhone上录制3D视频 今年的假期里,苹果推出了一项名为空间视频(Spatial Video)的新功能,允许用户在他们的iPhone上录制3D视频。这个功能允许用户使用苹果Vision Pro 头戴式显示器身临其境地回味自己的回忆。要开始录制3D空间视频,用户需要将他们的iPhone更新到iOS 17.2。同时他们还需要拥有更新版的iPhone 15 Pro或iPhone 15 Pro Max型号,因为这些型号的摄像头是并排放置的,这是捕捉立体视频所必要的。其他对角线摄像头布局的iPhone对于此功能无法正常工作。更新到iOS 17.2之后,用户可以在相机设置中启用空间视频。然后他们可以打开相机应用并按下Vision Pro按钮开始录制3D视频。一些录制最佳空间视频的技巧包括保持相机稳定水平,将拍摄对象和焦点保持在距相机3-8英尺的范围内以获取最佳的景深效果,并确保房间内均匀明亮的照明。值得注意的是,空间视频可能会消耗比普通视频更多的存储空间,因为它同时记录了两个视频。因此,计划录制大量空间视频的用户可能需要将他们的iPhone连接到外部USB驱动器。最后,还提到空间视频可以在各种设备和平台上观看,包括iPhone、Mac、iPad、Apple TV、Android手机和Windows计算机。将来,这些视频可以在Vision Pro头戴式显示器或其他3D设备上重播。