Я надеюсь, что Apple перенесет эту функцию Vision Pro на iPhone.

Apple Vision Pro показывает глаза владельца на фронтальном дисплее.

Альтернативные реальности, созданные цифровым способом, могут быть захватывающими или неприятными, в зависимости от того, как вы их себе представляете. Но Apple, среди других компаний, инвестирующих в будущее с доминирующим AR и VR, явно хочет, чтобы вы сосредоточились на светлой стороне. Вот почему Apple потратила много времени на своей конференции разработчиков WWDC 2023 , чтобы рассказать о различных функциях Apple Vision Pro — новой экстравагантной гарнитуры смешанной реальности от Apple.

Согласно уверенному рассказу Apple на мероприятии, Vision Pro открывает новую эру в области вычислений и выходит за рамки фиксированных дисплеев . Рекламные пошаговые руководства легко убеждают нас, что гарнитура визуально и функционально уникальна во многих отношениях.

От возможности расширить рабочий процесс с помощью бесчисленных экранов, разбросанных по окружающему пространству, до погружения в гиперреалистичные природные врата, гарнитура обладает множеством захватывающих функций. И мы, конечно же, надеемся, что некоторые из его функций появятся и на других устройствах, особенно на iPhone.

Новые аватары Apple FaceTime выглядят невероятно

Кто-то сканирует свое лицо с помощью Apple Vision Pro.

Заявлено, что Vision Pro плавно смешивает реальные и воображаемые сценарии, что может убедить человеческий разум фактически забыть границы между физическим и виртуальным мирами. Это достигается с помощью виртуальных элементов, которые не просто плавают в вашем физическом пространстве, но также улучшают ваше физическое окружение. Один из способов заключается в том, чтобы мельчайшие детали, такие как тени от плавающих окон, отбрасывались на объекты реального мира в вашем окружении.

Еще один способ, которым Apple пытается удивить (а также поставить в тупик) тех, кто не является пользователем, — использовать виртуальные аватары в FaceTime. С помощью гарнитуры Apple приветствует новую эру «пространственного FaceTime», когда видео каждого участника будут появляться в окнах, которые переплетаются с реальной средой пользователей Vision Pro. Но люди на другой стороне не увидят твоего лица, закутанного в головной убор.

Вместо этого Vision Pro будет создавать искусно реалистичные — и в то же время странно нервирующие — виртуальные представления пользователя. Эти аватары отображаются вместо фактического вида и создаются с помощью двух камер TrueDepth на гарнитуре. Примечательно, что камера TrueDepth — это уникальная система камер, первоначально представленная на iPhone X. Она включает в себя инфракрасный прожектор, точечный проектор и инфракрасную камеру. Все три эти системы объединяются, чтобы помочь создать 3D-карту лица пользователя, которую можно использовать для разблокировки iPhone с помощью Face ID.

Виртуальный образ человека в пространственном Facetime на Apple Vision Pro.

Аватар будет повторять ваши выражения лица, движения глаз и жесты, чтобы выглядеть более естественно. Это решает проблему постоянно держать iPhone в руке или смотреть на экран Mac во время разговора по FaceTime, или выглядеть как сумасшедший технический энтузиаст, который любит оставаться в расстроенных чувствах, пробуя новейшие гаджеты.

Для Apple это также реальный способ привлечь больше людей к своей зарождающейся идеологии пространственных вычислений — хотя бы по какой-то другой причине, но чтобы избежать страха упустить что-то (FOMO). Но помимо убеждения существующих пользователей Apple потратить 3500 долларов на новую технологию , есть еще один способ, которым Apple может сделать эти гиперреалистичные аватары более привычными — перенеся их на iPhone и iPad.

Они не должны быть эксклюзивными для Vision Pro.

Пространственный FaceTime на гарнитуре Apple Vision Pro

Есть веские причины, по которым аватары Virtual FaceTime подходят для других устройств Apple так же, как и для Vision Pro.

Во-первых, перенос пространственного FaceTime на все устройства соответствует предложенной Apple новой эре «пространственных вычислений». Пока не наступит осязаемое будущее, когда дополненная реальность полностью возьмет на себя другие взаимодействия с компьютерами и особенно заменит наши любимые смартфоны , Apple может использовать эту возможность для улучшения знакомства с технологией.

Помимо устранения границ между реальным и виртуальным мирами, предложение пространственного опыта FaceTime соответствует принципам экосистемы Apple, в которой все устройства — по крайней мере, высшего уровня — работают одинаково и в соответствии друг с другом. Известный аналитик Минг-Чи Куо также подтверждает необходимость установления гармонии между Vision Pro и другими устройствами в экосистеме Apple, ссылаясь на то, что это имеет решающее значение для первоначального успеха гарнитуры.

Кроме того, для обеспечения конвергентного программного обеспечения Apple будет работать над поддержкой аппаратного обеспечения на других своих устройствах, в частности на iPhone. Естественно, iPad (по крайней мере, вариант Pro) последует этому примеру. Это делает iPhone и iPad Pro достойными кандидатами для обмена опытом с Vision Pro, а пространственный опыт FaceTime возглавляет список наших ожиданий.

У Apple уже есть хитрости в рукавах

Apple Animoji и Memoji на iPhone.

Apple уже заложила основу для этого перехода к реалистичным аватарам, вложив годы работы в создание и улучшение Animoji . Эти большие анимированные смайлики на устройствах Apple имитируют выражение лица и движения головы человека.

Если вы не знакомы, Apple также предлагает специализированную версию Animoji, называемую Memoji , которая создает трехмерную карикатуру на лицо пользователя iPhone. Затем эту карикатуру можно использовать для персонализированных смайликов, в качестве анимированных реакций в iMessage или даже — барабанная дробь — в FaceTime, чтобы скрыть их лица.

Это не удивительно, если учесть, что Memoji является предвестником анимированных аватаров Vision Pro. Как и анимированный аватар на Vision Pro, Memoji использует камеру TrueDepth на iPhone или iPad Pro для отслеживания движений головы.

Помимо Face ID и Animoji, Apple также использует камеру TrueDepth для дополнительных функций камеры, таких как эффекты студийного освещения на iPhone и функция Center Stage на iPad Pro. Кроме того, он позволяет сторонним разработчикам добавлять новое измерение данных с датчиков TrueDepth в свои приложения через API. Для Apple имеет смысл опираться на эти существующие функции, чтобы включить поддержку расширенного опыта FaceTime, аналогичного Vision Pro.

В пользу нашего аргумента говорит и тот факт, что Apple в последние годы не обновляла внешний вид Animoji. Последнее обновление Animoji, близкое к запуску iPhone 14, добавило только новые анимации и еще несколько выражений лица, оставив место для улучшений.

iPhone и iPad готовы

iPhone 14 Pro Max в руке.

Помимо камеры TrueDepth, еще одним аспектом, согласующимся с этой идеей, является аппаратное обеспечение мобильных устройств Apple. Большинство моделей iPhone и iPad Pro управляются тем же (или аналогичным) мощным аппаратным обеспечением под капотом, что и гарнитура Vision Pro, в которую встроен специальный кремний M2 от Apple. То же самое можно увидеть на MacBook Air, 13-дюймовом MacBook Pro и iPad Pro 2022 года .

Точно так же чипсет A16 Bionic , который управляет моделями iPhone 14 Pro и iPhone 14 Pro Max, идентичен M2, хотя и с немного меньшей вычислительной мощностью из-за сравнительно менее мощных процессора и графического процессора. Несмотря на менее высокую производительность на iPhone, он, тем не менее, достаточно мощный, чтобы визуализировать вашу 3D-версию, воспроизводя выражения лица и жесты рук в режиме реального времени.

Ожидается, что с преемником A16 Apple внесет структурные улучшения в чипсет, перейдя на гораздо более эффективный 3-нанометровый (3-нм) производственный процесс. Основываясь на слухах о результатах тестов, A17 Bionic может еще больше приблизиться к M2 .

Мобильные устройства — это ворота в AR

Два человека играют в игру с дополненной реальностью на Apple iPad.

Помимо использования камеры TrueDepth iPhone для создания виртуальных персонажей для FaceTime, модели iPad Pro и iPhone Pro хорошо оснащены для воспроизведения плиток каждого участника в FaceTime, геометрически распределенных на Vision Pro. iPad Pro (2020 г. и новее) и iPhone (12 Pro и новее) оснащены лидарным сканером вместе с камерами на задней панели.

Сканер лидар (сокращение от Light Detection and Ranging) может точно определять расстояние от iPhone и iPad Pro до любого физического объекта, направляя на него свет и измеряя количество отраженного света. Это делает лидарный сканер чрезвычайно полезным для приложений дополненной реальности (AR).

При предыдущих запусках iPhone и iPad Apple посвятила подробные демонстрации играм и приложениям с дополненной реальностью . Расширение технологии для собственного FaceTime от Apple имеет смысл для расширения пространственного FaceTime за пределы Vision Pro.

Apple все еще может разочаровать

Мужчина носит Apple Vision Pro.

Несмотря на наше принятие желаемого за действительное, мы можем не увидеть пространственный FaceTime на других устройствах в этом году. Для Apple, чтобы перенести опыт FaceTime Vision Pro на другие устройства до его запуска, который намечен на «начало 2024 года», это означало бы ослабить волнение и новизну, связанные с его футуристической гарнитурой. Мало того, это не будет отличаться от Apple, если эти функции будут ограничены Vision Pro исключительно ради увеличения продаж экстравагантного гаджета.

Если Apple действительно решит внедрить пространственный FaceTime на другие устройства, первыми бенефициарами станут iPad Pro 2024 года или iPhone 16. Но если это окажется правдой, пространственный FaceTime на iPhone 16 выиграет от улучшенной системы TrueDepth, о которой предполагается . быть спрятаны и скрыты под дисплеем.

Я хочу пространственный FaceTime на своем iPhone

Человек в гарнитуре Apple Vision Pro.

Общий опыт лежит в основе философии Apple , что вселяет в нас необоснованную надежду на то, что эта ключевая функция Vision Pro появится на iPhone и других поддерживаемых устройствах. Хотя наши ожидания частично подкрепляются явным желанием испытать FaceTime новым и захватывающим способом, не выкладывая 3500 долларов, они также подкрепляются тем фактом, что последние модели iPhone и iPad Pro оснащены аппаратным обеспечением, необходимым для воплощения этой мечты в реальность.

Тем не менее, есть равный — или, вероятно, более высокий — шанс, что этого не произойдет, просто чтобы Apple могла заставить больше людей поделиться своим видением (каламбур!) сюрреалистического, но цифрового будущего. В конце концов, одна единица Vision Pro принесет жадной до денег корове примерно в три раза больше дохода, чем iPhone или iPad Pro. Слухи также указывают на относительноболее дешевую гарнитуру с visionOS , но это будет далеко не версия для SE, которая значительно более доступна.

Возможно, сейчас лучше всего подождать несколько месяцев до 2024 года. Это будет период, когда Vision Pro (надеюсь) уже выйдет на рынок и даст Apple шанс — и достаточные показатели — оценить может ли гарнитура выгодно продаваться как отдельное устройство (с определенным передовым преимуществом) или нуждается в поддержке со стороны своих старших братьев и сестер, подкрепленной чувством знакомства.