На что способна мобильная камера на 64 Мп

Samsung представила свой новый 64-мегапиксельный сенсор камеры ISOCELL Bright GW1 еще в мае, и в последние дни июля мы наконец узнали, какой производитель смартфонов станет одним из первых, установившим его в своё устройство. Таким производителем стал суббренд Xiaomi под названием Redmi, который с недавних пор отделился от материнской компании и стал самостоятельным брендом.

Вчера Redmi заявила, что в понедельник сделает важное объявление. Оставаясь верным своему обещанию, компания выпустила своеобразный тизер для своего предстоящего смартфона с камерой на 64 Мп. Вполне возможно, что смартфон Redmi в конечном счете станет первым в мире мобильным устройством с подобной камерой, опередив другие бренды, такие как Realme и Samsung.

Мобильная фотография с разрешением 64 Мп

Тизер, который Redmi опубликовала в китайской социальной сети Weibo, представляет собой фотографию с изображением любимого животного интернета, на которой также есть небольшой фрагмент снимка под увеличением. Технически, мы не получили оригинальную фотографию с устройства, но на обработанном фото видно, что камера с 64-мегапиксельным сенсором смогла уловить мельчайшие детали, сделав различимой каждую шерстинку на морде представителя семейства кошачих.

Читайте также: Samsung представила мобильную камеру с самым высоким разрешением на рынке

История уже повидала производителей, которые во время рекламной кампании демонстрировали миру одно, а на деле оказывалось совсем другое. Производитель может заявлять в своей рекламе все, что угодно, но реальный результат будет виден только тогда, когда камера окажется в ваших собственных руках. Помимо прочего, на изображении-тизере не сказано, что для создания фотографии использовалась именно камера Samsung, но учитывая, что кроме южнокорейцев в последнее время никто подобного железа не анонсировал, это всё-таки тот самый сенсор ISOCELL Bright GW1.

Вообще, смартфоны были способны воспроизводить изображения с разрешением 64 Мп ещё год назад, но тогда (и до сих пор) в этом непосредственное участие принимал софт, однако на этот раз, если Redmi не слукавили в своём тизере, такое происходит впервые, что сенсор действительно способен выдавать фотографии с такой детализацией.

Напомним, что сенсор Samsung GW1 способен снимать 64-мегапиксельные изображения с полным разрешением, но использует также технологию объединения пикселей Tetracell (которая еще называется биннингом), чтобы делать фотографии лучшего качества в условиях низкой освещенности. Сенсор имеет пиксели размером 0,8 микрона, но при использовании функции объединения пикселей способен снимать изображения, эквивалентные тем, что можно снять на 16-мегапиксельную камеру.

Читайте также: Что такое бинаризация и как она помогает сделать ваши фото лучше

Теоретически это выгодно отличается от сенсоров на 48 Мп с пикселями в 1,6 микрона, которые могут генерировать четкие ночные фотографии, эквивалентные 12-мегапиксельной камере.

Когда выйдет первый смартфон с камерой 64 Мп

На данный момент ни один производитель не назвал никаких сроков относительно выхода первого устройства с камерой такого высокого разрешения, однако Qualcomm, которая делает чипы нового поколения, и Samsung, занимающаяся производством передовых сенсоров, уверяют, что случится это уже в этом году.

Делитесь своим мнением в комментариях под этим материалом и в нашем Telegram-чате.

Графика Kaby Lake – поколение “девять с половиной”

Встраиваемую графику в процессорах поколения “оптимизации”, хотя в ней и не было ни одного радикального изменения, и на самостоятельное десятое поколение она не тянула, в Intel назвали продвинутой. И, как оказалось, вполне заслужено. Встраиваемая графика от Intel – самая распространенная в мире. Особенно на ноутбуках. По оценкам, её можно обнаружить в 2/3, а то и в 3/4 портативных компьютеров в мире. Не везде она используется, особенно часто её игнорируют в настольных компьютерах, но то о чем AMD и NVIDIA даже не мечтают, для Intel – свершившийся факт. iGPU везде. В большей степени чем i-устройства одной хорошо известной нам компании.

Чтобы технический уровень встраиваемых GPU (iGPU, как их иногда называют) вышел на более или менее приемлемый уровень, у Intel ушло более 20 лет. Что только не случилось за это время! Были и супер-пупер мегапроекты, и времена когда этому направлению почти не уделяли внимания, и звездные часы, когда у них стало получаться.

И в 2016, когда стало понятно что с Cannon Lake (или Cannonlake, одним словом – как Intel одно время называла этот проект), руководство компании попросило разработчиков iGPU сотворить “конфетку”, такую чтобы её ощутили обычные пользователи, но без длительных и рискованных фундаментальных перемен.

Если заглянуть в тогдашние СМИ, читаем: “прогресс графической подсистемы в Kaby Lake, в первую очередь, заметен обычным пользователям”. Молодцы, надеюсь им это зачлось и они не попали под, видимо, самое массовое сокращение персонала в Intel.

Это продолжение микро-серии про Intel Kaby Lake, начало здесь.

Медийный блок

Не секрет, что подавляющее большинство современных пользователей персональных компьютеров применяют эти сложные устройства исключительно для удовлетворения простых и низменных потребностей: коммуникации (почта, мессенджеры), игры (самые простые и нетребовательные к графической подсистеме) и просмотр видео.

К последней из этих потребностей iGPU имели самое непосредственное отношение. И к играм тоже, но всем кто всерьез болеет этой неизлечимой болезнью известно что “игры это дискретный графический процессор”.

Персональные компьютеры успешно исполняли роль домашнего кинотеатра в течение десятилетий. Я, например, очень давно не смотрю телевизор и не хожу в кино – MacBook Pro и iPad mini 2 стали моими окнами в мир.

Но, как оказалось, в этой области было куда расти и развиваться.

Слайд с презентации Kaby Lake:

Зеленым прямоугольником выделены радикально изменившиеся блоки графической подсистемы.

Сказать что GPU не участвовали в видеопрокате до Kaby Lake было бы преувеличением, но значительная часть нагрузки ложилась на CPU. Это работало, но CPU решающие задачи к которым даже в самых его многоядерных исполнениях были неэффективны. GPU, если бы этим занимались они, тратили бы на это в разы меньше энергии. В случае ноутбуков, это не праздный вопрос, интересный только “зеленым”.

Изменения в медийном блоке iGPU поколения 9 1/2 устранили почти все из этих проблем, в разы уменьшив энергопотребление при просмотре качественного видео. И при просмотре видео из Интернета, в браузере Chrome.

Типичный представитель Intel Kaby Lake, в разрезе и с аннотациями:

О Safari или об Internet Explorer было кому позаботиться, но и у Chrome поклонников было немало. Грамотное решение. Улучшения, вроде бы, коснулись и просмотра видео из других браузеров.

Улучшения в медийном блоке, слайд с презентации Kaby Lake:

Экономия энергии была заметна невооруженным взглядом. Особенно при проектировании видео на 4K-экран (или на несколько). Изменения были грандиозны, но охватывали не все возможные случаи. Естественно, СМИ нашли поводы покритиковать разработчиков iGPU и руководство Intel – но мы не будем придираться. Подразделение встраиваемой графики не подвело, аплодисменты в студию.

Еще кое-что

Процесс 14nm+ не был “попыткой выдать беду за добродетель”, как о нем написали в ряде СМИ. Благодаря ему действительно удалось увеличить тактовые частоты уже проверенных и отлаженных чипов, что при том же числе операций на Мегагерц не могло не привести к заметному росту производительности.

Встроенная в Kaby Lake графика стала заметно шустрее. Архитектура и реализация почти всех элементов iGPU была почти в точности той же, что в Skylake. Разве что устранили ряд багов и огрехов – оптимизация.

Шустрее и надежнее. А что еще нужно потребителю?

Поколение 9.5, краткий и поверхностный очерк

В Kaby Lake встраивались процессоры трех уровней: GT1, GT2 и GT3e. Их идентификаторы отличались от идентификаторов графических процессоров в Skylake начальной цифрой. Те же по сути вариации были легко узнаваемы.

Intel HD Graphics 510 в Kaby Lake был Intel HD Graphics 610, Intel Iris Graphics 540 назывался Intel Iris Plus Graphics 640 – в новой линейке были все те же модификации что и раньше, для того чтобы понять что такое Intel HD Graphics 630 не было необходимости в справочнике.

Вот, оказывается, что имели в виду правители Intel под наведением порядка и устранением хаоса в этих обозначениях.

К уровню GT1 относилась единственная модификация iGPU, Intel HD Graphics 610. Раньше графические процессоры этого класса, независимо от их поколения и особенностей, звали “просто Intel HD Graphics”.

Базовая частота – 300-350 МГц, в режиме “Boost” 900-1100 МГц. Производительность, в зависимости от частоты, от 172,8 до 211,2 GFOLPS. Эти GPU применялись в офисных PC, встраивались в i3-7101.

Уровень GT2 (в основном, для “особо тонких” ноутбуков, вроде MacBook), был представлен тремя GPU, в точности как и в Skylake:

— Intel HD Graphics 615, базовая частота 300 МГц, максимальные от 900 до 1050 МГц, при максимальных частотах производительность от 345,6 до 403,2 GFOLPS. Встраивались в m3-7Y30, m3-7Y32, i5-7Y54, i5-7Y57 и i7-7Y75;
— Intel HD Graphics 620, базовая частота 300 МГц, максимальные от 1000 до 1050 МГц, при максимальных частотах производительность от 384,0 до 403,2 GFOLPS. Встраивались в i3-7100U, i5-7200U, i5-7300U, i7-7500U и i7-7600U;
— Intel HD Graphics 630, базовая частота 350 МГц, максимальные от 1000 до 1150 МГц, при максимальных частотах производительность от 384,0 до 441,6 GFOLPS. Встраивались в i3-i5-i7 для настольных компьютеров и для ноутбуков.

У графических процессоров уровня GT3e в Kaby Lake изменились не только индексы, но и само название, теперь они назывались не Intel Iris Graphics, а Intel Iris Plus Graphics. Помимо прочего, GPU уровня GT3e отличало использование eDRAM, своего собственного кэша, в спецификациях компьютеров его называли кэшем четвертого уровня, или L4. В Kaby Lake, во всех GT3e GPU, размер этого кэша 64 Мегабайта.

Наличие L4-кэша никак не влияло на аппетит GPU, который как и прежде щедро откусывал для своих нужд полтора-два Гигабайта общей оперативной памяти. Вариантов GT3e в Kaby Lake было два:

— Intel Iris Plus Graphics 640, с базовой частотой в 300 МГц, Boost-частотами в 950-1050 МГц, с производительностью на Boost-частотах от 729,6 до 806,4 GFLOPS, встраивался в i5-7260U, i5-7360U, i7-7560U и i7-7660U;
— Intel Iris Plus Graphics 650, с базовой частотой в 350 МГц, Boost-частотами в 1050-1150 МГц, с производительностью на Boost-частотах от 806,4 до 883,2 GFLOPS, встраивался в i3-7167U, i5-7267U, i5-7287U и i7-7567U.

Продолжение следует

Предлагаем подписаться на наш канал в «Яндекс.Дзен». Там вы сможете найти эксклюзивные материалы, которых нет на сайте.

Kaby Lake: Если “тик-так” не получается…

Время от времени законы мироздания предоставляют нам случай узнать много нового о себе и о самих этих законах. Перед такими случаями, как правило, у тех кто на передовом крае науки и техники, возникает иллюзия всезнания. Они уверенно планируют достижения, рисуют стрелки на карте и сообщают о своих планах публике. И вдруг – тот самый случай. Вообще-то ничего плохого или постыдного в таких случаях нет. За последние полвека человечество очень далеко зашло туда, куда его не звали – и естественно, в боях за лучшее будущее много чего не учли. Иногда это аукается. Ничего не поделаешь. В поле две воли – это древние говорили о любой войне.

На IDF (Intel Developer Forum) в сентябре 2013 года публике был представлен первый Intel-процессор пятого поколения (Broadwell), производимый по технологии 14 нм. После чего глава Intel Брайен Крзанич объявил о начале массового производства этих процессоров “до конца текущего года”.

Но с массовым производством по процессу 14 нм все оказалось очент непросто. Наладить его, частично, удалось только через год. Начали с самых маленьких, с маркетинговым обозначением Core M. На осеннем IDF 2014 года в Сан-Франциско Крзанич объявил о начале массового выпуска трех модификаций Intel Core M, и сообщил о начале эры сверхтонких лаптопов без вентиляторов, бесшумных и убийственно красивых (в марте 2015 такого убийцу выпустила Apple, назвав его MacBook).

А потом Крзанич объявил о приближении еще одной революции. У революции было имя, её звали Cannon Lake. Их (процессоры Cannon Lake) должны были производить по технологии 10 нм, их массовое производство было назначено на середину 2016 – репутация Intel была восстановлена, в зале гремели овации. Оборудование на заводах Intel было обновлено, оно работало отлично, и Брайен счел возможным рискнуть.

Проблемы с производством повторились когда попытались начать массовый выпуск 4-ядерных процессоров. Черная полоса?

По схеме “тик-так” (tick-tock), исповедуемой Intel, Broadwell был фазой “тик”. Во второй половине 2015 года Intel обещала начать массовое производство процессоров фазы “так”, Intel Skylake. И, неожиданно, выполнила своё обещание. Производство началось в третьем квартале 2015 года. На IDF 2015 пришествие Cannon Lake перенесли на вторую половину 2017 года.

Kaby Lake

30 августа, посокрушавшись о трудностях перехода на технологию 10 нм, Intel объявила о выпуске третьего по счету поколения 14-нм процессоров. Назвали новое поколение Kaby Lake. По имени небольшого озера в Канаде, в провинции Онтарио, недалеко от города Тандер Бей.

Процессор выпускался по новому, улучшенному, процессу – 14nm+. А как же “тик-так”? С 2006 года, Intel строго следовала правилу, на котором никто за пределами компании особо и не настаивал: размерность технологи уменьшали раз в два года, поколения процессоров менялись раз в год. Индустрия привыкла к этому ритму, обновляя компьютеры раз в год.

Об этом мы поговорим чуть позже, найденное руководством Intel решение мне показалось очень интересным. Как бы даже креативным.

По большому счету, производителей компьютеров мало интересовала технология новых поколений процессоров – главное было не отстать от общей массы. Или соблюсти какие-то свои прихоти (это я про Apple). Но руководству Intel показалось что компания потеряет лицо если она просто нарушит устоявшееся правило. Тем более, по техническим причинам.

Архитектура Kaby Lake, как и Skylake, была разработана в отделении Intel в Израиле, в Хайфе. Глава этого отделения, Ран Сэндеровиц, сообщил что перед ними была поставлена задача внести в Skylake минимальные изменения и доработать связку нового процессора с графической системой поколения 9,5, но в процессе разработки возникло много ярких и интересных идей – и изменения, нечаянно, оказались значительными.

R&D отделение в Хайфе:

Маркетинговых изменений тоже было немало. Структуру модельного ряда процессоров оставили почти такой же как у Skylake, заменив шестерку в обозначении процессора на семерку, а Core m5 и Core m7 стали Core i5 и Core i7.

Логотипы Kaby Lake:

Например, i7-6500U стал i7-7500U, а m7-6Y75 – i7-7Y75(!). При этом, о ликвидации m5 и m7 не объявили. То ли забыли, то ли для чего-то. Неизвестно.

Пообещали что в приложениях производительность процессоров Kaby Lake превышает такую же у их родственников поколения Skylake на 12%, а в Internet – на 14%. Естественно, тесты за пределами Intel это не подтвердили.

Серьезные изменения

Процесс 14nm+, бóльшие тактовых частот, значительно бóльшие тактовые частоты в режиме Turbo, более быстрое переключение частот (Skylake переключается в режим Turbo более чем за 20 мс, а Kaby Lake – менее чем за 20 мс).

Процессорам Core i3 разрешили разгон тактовой частоты (overclocking).

В Skylake была декларирована поддержка слота PCIe 3.0 х4 работающего с M.2 (и NVMe), но реализована она была только в Kaby Lake.

Кроме того, в систему-на-чипе процессоров Kaby Lake включили контроллеры USB 3.1 и Thunderbolt 3 (вплоть до Skylake для них требовались специальные чипы на материнской плате).

Число инструкций выполняемых за один цикл и производительность на Мегагерц остались такими же, как и у Skylake.

И да, новая графика – но о ней в другой раз.

Процесс-Архитектура-Оптимизация (PAO)

Переходы на меньшую размерность технологии становились все длительнее и сложнее. Но просто отводить на изменение процесса изготовления и на его отладку больше времени не пошли.

Мне кажется, хуже от этого не стало бы. Каждый следующий шаг на этом пути требует все больших и больших усилий, их бы поняли.

Но у великих компаний (а Intel – это одна из великих компаний, у них тоже бывают трудные времена) гонор немного зашкаливает.

Intel объявила об замене схемы “тик-так” на схему “Процесс-Архитектура-Оптимизация”. И, задним числом, стали называть Broadwell поколением фазы “Процесс”, Skylake стали процессорами фазы “Архитектура”, а Kaby Lake прекрасно подошел под определение фазы “Оптимизация”.

Великий переход:

И если бы в 2017 году вышел долгожданный Cannon Lake, все идеально сложилось бы, но увы.

Продолжение следует, а пока обсудить историю Apple вы можете в нашем Telegram-чате.

Apple A10X Fusion: Ураганим с ветерком

С планшетами дела были не очень, но отступать Apple не собиралась. На смену Apple A9X, все еще одной из самых выдающихся планшетных SoC на рынке, пришла Apple A10X, еще более выдающаяся. В тестах Apple A9X оставляла позади процессоры от Intel, но изменить положение на планшетном фронте это не помогло. И вот – еще одна попытка.

Победы в соревнованиях с Intel-процессорами даром Apple не прошли. Компанию уже не раз обвиняли в нечестной игре: её инженеры, с чисто корыстными целями, “затачивали” системы-на-чипе исключительно на победу в тестах. Чтобы привлечь внимание, обидеть Intel, заставить публику покупать iOS-устройства. Это мошенничество, в особо крупных размерах (годовой тираж этих устройств, несмотря на рецессию, превышал сто миллионов штук).

Даже если бы этому и уделялось пристальное внимание в Apple, в чем криминал? Продажи или смерть – главный закон рынка. Привлечь внимание, доказать своё превосходство, и не разочаровать поверивших. А “синтетические” тесты, что бы про них не говорили, все же достаточно объективны. И на тестирование и отладку разрабатываемых чипов в отделении микроэлектроники Apple не жалеют ни средств, ни времени – о чем сообщала сама Apple, это чуть ли не единственная открытая информация про отделение микроэлектроники компании.

А в других мастерских этого профиля не так? Не может быть.

Действительно ли Apple Ax стали угрозой для Intel и AMD? Вообще-то, системы-на-чипе от Apple для широкой продажи не предназначались. Они идеально подходили только для тех устройств, в которых использовались. И выигрывали в гонках исключительно внутри этих устройств, управляемых заранее известной операционной системой, в заранее известных разработчикам SoC конфигурациях. Для этого все и задумывалось. Никто и никогда этого не скрывал.

Прогресс Apple Ax бы ошеломляюще стремителен. От Apple A4 (которая ничем особенным на общем фоне не выделялась) до Apple A10X Fusion, всего за 8 лет. Впечатляет. Кстати, Apple A4, хотя в его названии и нет буквы “X”, тоже можно отнести к X-серии. Его дебют совпал с дебютом iPad. Первая планшетная система-на-чипе. Но официально эта серия началась с Apple A5X.

Итак, на смену продвинутой и лучшей в мире системы-на-чипе для iOS-устройств Apple A9X пришла еще более продвинутая система-на-чипе Apple A10X Fusion. Продвинутая ли она?

Это продолжение серии про чипы разработанные Apple. Предыдущие части:

Первая часть: В тени Apple A4;
Вторая часть: Рождение “яблочного” процессора;
Третья часть: Возвращаясь к началу начал: Apple A6/A6X (Swift);
Четвертая часть: Cyclone приходит на смену Swift (в Apple A7);
Пятая часть: Еще один “NeXT”, или сопроцессор для фитнеса (Apple M7);
Шестая часть: Cyclone превращается в Typhoon (Apple A8);
Седьмая часть: Apple S1: загадка, укрытая тайной;
Восьмая часть: Apple A8X: Графика в зоне особого внимания;
Девятая часть: Apple A9 – обманщик, негодяй и чипгейт;
Десятая часть: Apple A9X: Ядерная физика?;
Одиннадцатая часть: Apple A10 Fusion;
Двенадцатая часть: Apple T1: iOS-устройство проникает в Mac.

Признаки прогресса

В 2017 году ожидалось что Intel, Samsung и TSMC начнут производство микросхем по технологии 10 нм. Переход на эту технологию был сложнее чем ожидалось. В начале года с этим справились только Samsung (процесс LPE) и TSMC (процесс FinFET).

Поскольку я об этом упомянул, вы уже догадались что все это имеет отношение к новой SoC “фруктового” гиганта. Да. Apple A10X Fusion производился по технологии 10 нм FinFET.

В TSMC работали над процессом 7 нм, считая процесс 10 нм короткой остановкой на пути в будущее – но об этом мы поговорим когда-нибудь потом.

A10X:

A10X была самой “мощной” из всех систем-на-чипе X-серии, при этом по размеру кристалл был самым маленьким из них – 96,4 кв.мм.

Площадь кристаллов X-серии:

Как и в Apple A10 Fusion, в A10X использовалась архитектура big.LITTLE, и те же ядра – Hurricane (Ураган) и Zephyr (Зефир, но еще и Ветерок или Бриз). В big.LITTLE используют ядра двух типов, ураганно мощные и энергосберегающие. Кто из них кто в A10X не скажу. Догадайтесь.

В A10X ядер каждого типа было по три (вместо двух в A10), если не учитывать технологию производства, внешне, ядра были практически такими же. К сожалению, привести снимок поверхности чипа с расшифровкой я не могу. Подробная информация о вскрытых чипах, в том числе и снимки с приемлемым увеличением и с аннотациями, теперь предоставляются только подписчикам и без права публикации.

В свободном доступе только это:

Максимальная тактовая частота ядер Hurricane в A10X была увеличена до 2,38 ГГц (в A10 – 2,34 ГГц).

Кэш третьего уровня в A10X отсутствует в принципе, кэш второго уровня – 8 Мегабайт.

Графический процессор – PowerVR Series 7XT GT7600 Plus в 12-кластерной конфигурации. В A10 использовался тот же GPU, только в 6-кластерной конфигурации. Эксперты вместо термина “кластер” чаще употребляют более привычный термин “ядро”, хотя PowerVR очень убедительно объяснила почему это скорее кластеры, чем ядра. Но не будем отвлекаться.

И это был не совсем PowerVR Series 7XT GT7600 Plus, но про графические процессоры поговорим чуть позже.

Помимо CPU и GPU, на кристалле располагалось много всего интересного: сопроцессор движения Apple M10, “секретный анклав”, контроллер флэш-памяти NVMe, и масса всяких совершенно секретных элементов.

Целый мир на кристалле. И да – в гонках Apple A10X Fusion показывала феноменальные результаты, сравнимые с Intel Core i7 в MacBook Pro 2015 года. В индустрии уже говорили о том что процессоры от Intel больше не нужны Apple, что компания вот-вот переведет Mac’и на ARM-процессоры собственной разработки. Но это еще одна “другая история”.

Графика от Apple?

Фил Шиллер, в ответ на вопросы журналистов, еще в 2016 году, подтвердил: Apple вносит изменения в графические процессоры от PowerVR. Легально и официально. И уже давно.

Внедрение Metal усилило эту тенденцию. Обе SoC, Apple A10 Fusion и Apple A10X Fusion, в тестах использующих Metal были значительно эффективнее, чем в тестах с OpenGL или OpenCL. Только Apple могла оптимизировать работу GPU с новыми версиями Metal, пока еще совершенно секретными.

О том что в отделении микроэлектроники Apple создается полноценное подразделение для разработки графических процессоров, хоть это и считалось закрытой информацией, знали и эксперты, и журналисты. Без каких-либо утечек.

Вакансии с очень специфическими требованиями, модернизация GPU от PowerVR, наконец подозрительное невнимание Apple к PowerVR серий 8XE и 8XE Plus в 2016 и 2017 годах. И это невнимание было взаимным: в 8XE и 8XE Plus не поддерживался Metal.

12-ядерный PowerVR Series 7XT GT7600 Plus в Apple A10X Fusion был всего в полтора раза производительнее чем 12-ядерный PowerVR Series 7XT GTA7850 в Apple A9X (“A” в “GTA” указывает на большее чем обычно участие Apple в его разработке). PowerVR не подвела, её стандартный GPU в 12-ядерной конфигурации позволял Apple A10X Fusion брать призовые места – но для категории “самый-самый”, на которую эту систему-на-чипе номинировала Apple это казалось недостаточным.

А еще, про PowerVR Series 7XT GT7600 Plus почти ничего не сказали во время презентации. Обозреватели уже знали что это последний GPU от PowerVR в Apple Ax. В Apple A11 ждали GPU “яблочной” разработки.

Сторонние наблюдатели заявляли что это невозможно. Достойную графику Intel удалось (или не удалось – я встречал и такое мнение) создать за 20 лет напряженной работы. Это особенное направление в микроэлектронике, и всяким выскочкам (Apple) с этим ни за что не справиться. Но пусть де попытаются – мы посмеёмся.

Но…

Продолжение следует, а пока обсудить историю Apple вы можете в нашем Telegram-чате.

Какое будущее ждёт мобильную фотографию

2019 выдался богатым на новые технологии в области мобильной фотографии. Так, например, мы увидели в нескольких смартфонах перископическую камеру, которая позволяет добиваться потрясающего зума, доселе невиданного на мобильных устройствах. Huawei P30 Pro с его 40-мегапиксельным основным сенсором и возможностью увеличивать изображение до 50 крат является, на мой взгляд, наиболее запоминающимся устройством среди подобных, которые также называют камерофонами.

Конечно, в этом смартфоне используется не настоящий оптический зум, а гибридный, доработанный в цифровом виде — алгоритмы ИИ берут информацию с телеобъектива и добавляют детали к увеличенному изображению для создания убедительного эффекта невероятного «зума».

Смартфон с камерой на 100 Мп уже не за горами

На днях стало известно, что скоро мы увидим масштабное обновление этой технологии. В соответствии с утечкой от инсайдера IceUniverse, мы получим 108-мегапиксельные камеры с 10-кратным оптическим зумом в смартфонах уже в 2020 году. Он не упоминает конкретный бренд, но я возьму на себя смелость предположить, что это будет Huawei плюс пара других лидеров рынка (например, Samsung).

Читайте также: Почему нам не нужна камера на 100 Мп в смартфоне

10-кратный оптический зум был бы настоящим прорывом на рынке мобильной фотографии, потому что он не только позволил бы делать реальные фотографии без потери качества, но и с применением технологии «гибридного зума» помог бы добиться просто-таки сумасшедших возможностей зумирования. Если 40-мегапиксельный сенсор с 5-кратным оптическим зумом в гибридном режиме может зумировать до 50 крат, то 108-мегапиксельный сенсор с 10-кратным зумом может достичь 100-кратного увеличения. Как вам такое?

Вплоть до 2019 года производителям мобильных устройств удавалось добиться с помощью телеобъектива лишь 2-кратного оптического зума. В этом году OnePlus превысила этот порог со своим OnePlus 7 Pro и его 3-кратным зумом, а Huawei — с 5-кратным зумом, используя уникальную технологию перископического расположения линз в камере. 10-кратный зум мог бы без особых усилий превзойти эти достижения.

Читайте также: Что особенного в перископической камере Huawei P30 Pro в сравнении с Galaxy S10+ и iPhone XS

Производители продолжат мериться мегапикселями

Также интересно отметить, что война за большее количество мегапикселей в камере смартфона среди производителей назревает снова. Однажды такое уже случалось, но в 2016 году производители обратили вспять эту тенденцию, уделив больше внимания размеру отдельных пикселей и способности сенсора собирать свет, а не пытаясь произвести на нас впечатление большими цифрами. Все потому, что большие мегапиксели равны большему количеству света, захваченного камерой, но это также означало уменьшение количества этих самых мегапикселей. В конце концов, оказалось, что этот своего рода «даунгрейд» был к лучшему — фотографии со смартфонов стали лучше именно при использовании больших пикселей, а не их большого количества.

Читайте также: Что такое апертура и как она влияет на качество ваших фото?

Это, между прочим, не первый раз, когда мы слышим о скором прибытии в наше настоящее смартфонов с камерами на 100 Мп, поэтому кажется, что это уже неизбежно. Теперь осталось только немного подождать и увидеть, кто же на этот раз станет лидером в отрасли и как сильно нас поразят новые технологии.

Делитесь своим мнением в комментариях под этим материалом и в нашем Telegram-чате.

Qualcomm анонсировала новый мобильный процессор. Он еще мощнее Snapdragon 855

Подход Qualcomm к выпуску своего флагманского мобильного процессора прост: следующий год – следующее поколение процессора. Это, конечно, хорошо, особенно для тех, кто жаждет повышения «сырой» производительности, однако на этот раз мы увидели кое-что новенькое. Производитель чипов представил обновленную версию Snapdragon 855 Plus, которая не является прямым продолжением известного «монстра» среди процессоров, но чём-то промежуточным между тем, что у нас есть сейчас в лице SD 855, и тем, что, вероятно, будет называться Snapdragon 865.

Сейчас популярно стало жаловаться на новую тенденцию в игровых смартфонах, заключающуюся в том, что они используют те же самые процессоры (и в значительной степени те же самые внутренние компоненты), что и неигровые смартфоны, поэтому их производительность обычно не сильно превышает ту, что мы привыкли видеть ожидать от обычных устройств. Глядя на сегодняшний анонс от Qualcomm, хочется верить, что скоро все может наконец измениться.

Qualcomm собрала все популярные термины в одном месте для рекламы своего нового процессора: ИИ, AR и VR

SD 855 Plus использует ядра Kyro с тактовой частотой до 2,96 ГГц, что даёт скромный прирост в сравнении с SD 855 и его 2,84 ГГц. Графический процессор Adreno 840 предположительно на 15% быстрее своего предшественника. Это, конечно, не гигантский скачок, но Qualcomm делает ставку на то, что новый сет из процессоров идеально подойдёт для игр, где производительность графического процессора важнее, чем грубые вычисления ЦП. Дополнительные примочки, которые компания встроила SD 855 Plus, также позволяют ему намного эффективнее работать с AR и VR, ИИ и всем остальным, что особенно сильно требовательно к производительности процессора.

Впрочем, если вы грезите о 5G, то этот чип точно не для вас. Встроенный модем не может работать с чем-то круче, чем LTE, поэтому устройствам с ним на борту по-прежнему понадобится отдельный сетевой модем X50 (и, возможно, придётся идти на компромиссы с размером устройств и временем их автономной работы), чтобы достичь скорости сотовой связи следующего поколения.

Разогнанный SD 855, метко названный SD 855 Plus, появится в смартфонах уже во второй половине 2019

Чтобы увидеть SD 855 Plus в деле, долго нам ждать не придётся, так как новый процессор, по словам Qualcomm, начнёт питать мощности мобильных устройств уже во второй половине 2019 года. Также Qualcomm заявила, что в отличие от стандартной схемы производства, на этот раз производителям смартфонов не придется соглашаться на использование предыдущего поколения Snapdragon, которому уже несколько месяцев, просто потому, что они хотят выпустить смартфон в конце полугода.

Однако пока есть только одно упоминание о поставщиках, использующих SD 855 Plus, и ASUS подтверждает, что в ее новом ROG Phone II будет установлен новый чипсет. Есть большая вероятность, что и другие крупные производители телефонов ухватятся за эту возможность, ведь это отличный способ сохранить свои смартфонные линейки актуальными, не дожидаясь полноценного продолжения Snapdragon 855.

Делитесь своим мнением в комментариях под этим материалом и в нашем Telegram-чате.

Skylake: графика 9 поколения

Над миром бушевали макроэкономические бури. Барометры (в данном случае ими были не приборы отделанные под старину, а люди) обещали дальнейшее ухудшение погоды, конца штормам и спадам не было видно – именно в это время Intel вывела на рынок процессоры шестого поколения. В чипы некоторых из них были интегрированы очень неплохие GPU.

Сами процессоры были разработаны в прославленном R&D отделении Intel в Хайфе. Но их графические подсистемы были разработаны в другом месте, отдельной командой, которая долго шла к успеху. Это было девятое поколение Intel-графики, значительный шаг вперед.

Путь к успеху был долгим и трудным, что-то действительно значительное стало получаться во времена Haswell. В том, что неофициально назвали поколением 7.5.

Сохранив лучшее из того, что было достигнуто в последнее время, в девятое поколение внесли огромное число новшеств, повысили производительность и устранили проблемы с когерентностью кэшей, расширили применение eDRAM. Эти изменения не превратили HD Graphics в лидирующие игровые GPU, но с действительно важными задачами справляться они стали лучше.

И, в рамках борьбы с хаосом и путаницей в названиях, Intel изменила правила обозначения модификаций графических процессоров. Самое важное и очевидное изменение (и чуть ли не единственное, кстати – индексы модификаций теперь состояли из 3 цифр, а не из 4, как было раньше).

При чем тут хаос и путаница я, честно говоря, так и не понял. У меня есть предположение, но о нем чуть позже.

В апреле 2016 года графика девятого поколения дебютировала в Mac’ах.

Это продолжение микро-серии про Skylake, предыдущие части здесь:

Первая часть: Skylake: из серии “не ждали”.

Некоторые сокращения

Как и в графике 8 поколения, применявшейся в Broadwell, в 9 поколении все встроенные графические процессоры делились на несколько уровней. Их обозначение состояло из буквосочетания GT (Graphics Tier, уровень графики) и либо цифры, либо цифры и строчной буквы “e”, указывавшей на использование eDRAM, встроенного кэша.

Официально были определены следующие уровни (в 9 поколении некоторые из уровней не были реализованы):

— GT1 – 12 исполняемых юнитов (блоков);
— GT2 – 24 исполняемых юнита;
— GT3 – 48 исполняемых юнитов;
— GT3e – 48 исполняемых юнитов и eDRAM, размером в 64 Мегабайта;
— GT4e “Halo” – 72 исполняемых юнита, eDRAM в 128 Мегабайт, новинка этого поколения).

Центральные процессоры Skylake, на чипах которых размещалась встраиваемая графика девятого поколения, тоже делились на несколько классов, обозначавшихся буквенными индексами: Y, U, H, S и X. Это:

— Y – процессоры для систем не требующих принудительного охлаждения и для планшетов;
— U – процессоры для ультрабуков и тонких ноутбуков;
— H – процессоры для высокопроизводительных ноутбуков;
— S – процессоры для настольных персональных компьютеров;
— X – процессоры для персональных компьютеров повышенной мощности.

Теперь мы готовы прикоснуться к тому, во что трансформировался хаос.

Графические процессоры 9 поколения

Во всех предыдущих поколениях встраиваемой графики Intel присутствовала фактически безымянная модификация Intel HD Graphics, без индекса. Она относилась к уровню GT1, и всегда называлась совершенно одинаково, поколение GPU по имени было невозможно определить. Было ли это теми самыми хаосом и путаницей, которых победили изменением размерности индексов?

Теперь у GPU уровня GT1 был собственный индекс: Intel HD Graphics 510. 182,4 GFLOPS при тактовой частоте 950 МГц. Встраивался этот вариант в процессоры класса Y.

В GT2 было 3 модификации GPU, одна из этих модификаций была использована в новой модели MacBook в апреле 2016 года.

— Intel HD Graphics 515 – 384 GFLOPS при тактовой частоте 1000 МГц, для класса Y;
— Intel HD Graphics 520 – 403,8 GFLOPS при тактовой частоте 1050 МГц, для класса U;
— Intel HD Graphics 530 – 441 GFLOPS при тактовой частоте 1150 МГц, для классов H и S.

GT3 в девятом поколении не было. Только GT3e, с кэшем в 64 Мегабайта eDRAM:

— Intel Iris Graphics 540 – 806,4 GFLOPS при тактовой частоте 1050 МГц, для класса U;
— Intel Iris Graphics 550 – 844,8 GFLOPS при тактовой частоте 1100 МГц, для класса U.

В GT4e, с кэшем в 128 Мегабайтами eDRAM, была только одна модификация, Intel Iris Pro Graphics 580, 1 152 GLOPS при тактовой частоте 1000 МГц. GPU был предназначен для центральных процессоров класса H.

Поддержка Metal

В описании предыдущих поколения графических процессоров от Intel, сообщалось о совместимости модификаций с DirectX, с версиями OpenGL и OpenCL.

С точки зрения пользователя OS X, первое было совсем неинтересно, а поддерживаемые версии OpenGL и OpenCL определялись в операционной системе. Apple заботится о своих пользователях, в случае если графическая подсистема вашего Mac’а с ними несовместима, ваш Mac попадает в “черный список”.

Это одна из причин. Обманув установщик и установив вожделенную версию системы на Mac входящий в её “черный список”, пользователь освобождает Apple от ответственности за его судьбу. Реальный мир удивительнее любых фантазий: иногда при этом все работает. Во всяком случае то, что нужно этому пользователю. Иногда. Обычно проблемы есть.

В списке поддерживаемых девятым поколением графических технологий появилась еще одна, Metal 2.1. Её поддерживали все встраиваемые графические процессоры для Skylake начиная с GT1 и заканчивая GT3e.

А вот Intel Iris Pro Graphics 580, по данным производителя, Metal 2.1 не поддерживал. С чего бы это вдруг, и какой в этом скрыт потаённый смысл?

Продолжение следует

Обсудить историю Apple вы можете в нашем Telegram-чате.

Что такое аппаратное ускорение на Android и зачем оно нужно

Аппаратное ускорение — это специальная опция, которую вы, возможно, замечали в меню различных приложений на многих своих устройствах, включая смартфон на Android. Хотя оно и не всегда доступно в большинстве мобильных приложений, аппаратное ускорение используется в ряде популярных Android-приложений, включая YouTube, Chrome, Facebook и других.

Варианты использования для аппаратного ускорения варьируются от более эффективного рендеринга видео и обработки звука до сглаживания текста и ускорения 2D-графики, а также анимации пользовательского интерфейса. Короче говоря, если у вас есть такая возможность, лучше использовать аппаратное ускорение, если только оно не вызывает какие-либо проблемы или ошибки.

Что такое аппаратное ускорение

Название говорит само за себя — аппаратное ускорение использует специальное аппаратное обеспечение для ускорения определенной задачи, чтобы она выполнялась быстрее и/или более эффективно, чем это происходит при использовании одного лишь центрального процессора (CPU). Чаще всего в игру при таком сценарии вступает графический процессор (GPU), цифровой сигнальный процессор (DSP), или какой-либо другой аппаратный блок, который специализируется на выполнении какой-то конкретной задачи.

Все это осень сильно напоминает гетерогенные вычисления. Однако широко используемые типы ускорения часто предоставляются через операционную систему разработчикам приложений, а не полагаются на выделенную платформу SDK для доступа к различным вычислительным компонентам. При отключенном ускорении процессоры все еще могут запускать необходимую функцию в конкретном приложении, хотя и медленнее, чем на выделенном оборудовании.

Одним из наиболее распространенных вариантов использования аппаратного ускорения является кодирование и декодирование видео. Например, вместо того, чтобы декодировать видеопоток на центральном процессоре (ЦП), который не очень эффективен, видеокарты или другое оборудование часто содержат выделенные блоки кодирования/декодирования видео, которые могут выполнять задачу намного более эффективно. Аналогично, распаковка аудиофайла часто может выполняться быстрее на DSP или звуковой карте, чем на процессоре.

Другое очень распространенное использование для аппаратного ускорения — ускорение 2D-графики. Например, пользовательские интерфейсы часто содержат много графики, текста и анимации для рендеринга. Все это может быть выполнено центральным процессором, но графический процессор (GPU) или дисплейный процессор намного быстрее справятся с таким типом операции. Задачи могут включать применение фильтра сглаживания к тексту, чтобы он выглядел более плавным, или наложение полупрозрачного слоя поверх другого элемента, такого как видео. Другие примеры продвинутой графики включают оптимизацию физики и трассировку световых лучей.

Почему аппаратное ускорение важно

Процессор является главной рабочей лошадкой любой компьютерной системы. Он разработан для решения практически любых задач, которые могут быть ему поставлены, но эта гибкость означает, что зачастую это не самый эффективный способ выполнения конкретных задач, особенно тех, которые требуют много повторяющихся сложных вычислений, таких как декодирование видео или рендеринг графики.

Аппаратное ускорение переносит обычные задачи с ЦП на специализированное оборудование, которое может не только выполнять задачу быстрее, но и гораздо более эффективно. Это означает, что устройства нагреваются меньше, а батареи работают дольше. Таким образом, при использовании выделенного блока видеодекодера вы сможете смотреть гораздо больше видео в высоком качестве на одной зарядке по сравнению с запуском того же алгоритма на процессоре. Держим в голове ещё то, что это также освобождает ваш процессор для выполнения других задач, делая приложения более отзывчивыми.

Компромисс состоит в том, что включение дополнительного оборудования для обработки для определенных функций имеет свою стоимость, как с точки зрения затрат на разработку, так и с точки зрения высокой стоимости самого кремния, из которого изготавливаются процессоры. Необходимо принять решение о том, какие функции стоит поддерживать с помощью аппаратного обеспечения, например, очень популярных видеокодеков, а какие не вполне соответствуют желаемому соотношению цена/качество.

Аппаратное ускорение стало важным инструментом в компьютерных системах — от высокопроизводительных ПК до смартфонов, ввиду своей компактности требующих низкого энергопотребления. Варианты использования выделенного оборудования только растут с появлением приложений, задействующий технологию машинного обучения. Тем не менее, большую часть времени аппаратное ускорение используется только для экономии заряда аккумулятора, например, при воспроизведении видео с YouTube.

Делитесь своим мнением в комментариях под этим материалом и в нашем Telegram-чате.

Apple T1: iOS-устройство проникает в Mac

Строго говоря, Apple T1 работала под управлением bridgeOS, основанной на watchOS – но помните ли вы на чем основана watchOS? Еще интереснее источник информации. Главный из них – сама Apple. Неожиданно? Об Apple T1 известно намного лучше, чем о других чипах разработанных Apple. Хотя, по идее, именно этот чип, напрямую связанный с обеспечением безопасности, должен был стать самой страшной “яблочной” тайной. Парадокс?

Другие системы-на-чипе (SoC) и системы-в-корпусе (SiP), за исключением Apple A*, были неизвестным в неизвестном. Ареалом их обитания были неисследованные разработчиками устройства. Ни для одной из платформ компании, кроме Mac’а и iPhone/iPad, либо вообще не было независимых инструментов позволяющих заглянуть внутрь, либо о них мало кто смог узнать (зачистили?) – и достоверной информации очень мало.

Первый чип собственной разработки предназначенный для использования в Mac’ах, Apple T1, отличался от них. Его можно было “увидеть” из macOS, и узнать много интересных подробностей – не сдирая с него шкуру, слой за слоем, не используя для исследований мощный электронный микроскоп (ценой в миллионы долларов). К чиподёрам я вернусь, чуть позже. Есть к ним вопросы, на некоторые из которых я могу ответить.

В бета-версии macOS Sierra, которая была обязана работать с этим чипом, как только о нём стало известно (со слов Фила Шиллера), нашли “отражение” Apple T1, достаточным чтобы понять или предположить как он устроен, как с ним взаимодействует macOS. В основном предположить.

И, с конкретными вопросами, обратились к Apple. Написали письмо Филу Шиллеру. И, вопреки всем представлениям об обычаях компании, им ответили. Отвечал специалист, не сам Фил, оставшийся неизвестным – но ответ был подписан Филом Шиллером.

Сведения о чипах Apple, как оказалось, не скрывает – она их просто не делает достоянием общественности. Это не одно и то же, согласитесь.

Это продолжение серии про чипы разработанные Apple. Предыдущие части:

Первая часть: В тени Apple A4;
Вторая часть: Рождение “яблочного” процессора;
Третья часть: Возвращаясь к началу начал: Apple A6/A6X (Swift);
Четвертая часть: Cyclone приходит на смену Swift (в Apple A7);
Пятая часть: Еще один “NeXT”, или сопроцессор для фитнеса (Apple M7);
Шестая часть: Cyclone превращается в Typhoon (Apple A8);
Седьмая часть: Apple S1: загадка, укрытая тайной;
Восьмая часть: Apple A8X: Графика в зоне особого внимания;
Девятая часть: Apple A9 – обманщик, негодяй и чипгейт;
Десятая часть: Apple A9X: Ядерная физика?;
Одиннадцатая часть: Apple A10 Fusion.

При чем тут Touch Bar?

Touch Bar, помимо прочего, должен был работать с Touch ID и Apple Pay. И, по понятным причинам, с этими технологиями связаны исключительные меры безопасности. А без них эта полоска с Touch интерфейсом была бы на порядок менее привлекательной.

В iOS для них был разработан целый комплекс нетривиальных решений, как на уровне “железа” (секретный анклав доступен только внутри системы-на-чипе, для внешнего мира его будто бы и нет), так и на уровне программного обеспечения. Все это разрабатывалось и отлаживалось в течение нескольких лет, педантично и основательно. В стиле Apple, то есть, с маниакальным вниманием ко всем мелочам. С учетом особенностей техники где их предполагалось использовать.

Поддержку Touch ID и Apple Pay в Mac’ах можно было реализовать по разному. Например, перенести гигантский массив кода для iOS, а потом, с теми же тщанием и педантизмом, добиться той же скрытности и эффективности многочисленных тонких мест. Хорошее дело “портингом” не назовут (porting – это перенос программного обеспечения с платформы на платформу).

Это потребовало бы очень много времени, результат при этом никто гарантировать не мог, потому что в любом новом коде обязательно есть ошибки, которые не будут выявлены и исправлены при его тестировании и проявятся только когда он вырвется на свободу. В iOS проблемы с Touch ID (которые не привели к утечке информации, но могло быть и иначе) были, и не раз.

В любом случае этим технологиям требовалась аппаратная поддержка. Тот самый анклав, недоступный внешнему миру. В любом случае нужно было разработать еще и чип.

А можно было включить в состав Mac’а небольшое iOS-устройство, использовать общий исходный код, проверенный и заведомо способный решать стоящие перед ним задачи, и использовать при разработке чипа накопленный опыт. Этот путь тоже был нетривиален, но он почти гарантировал безупречный результат, а затраты квалифицированного труда при этом были бы намного меньшими. Приемлемыми для Apple.

В итоге, была разработана система-на-чипе, которую назвали Apple T1. Самое маленькое iOS-устройство в мире.

Портрет Apple T1, в интерьере MacBook Pro:

Фотографий Apple T1 с содранной кожей я не нашел. Искал, но без фанатизма. Об этой системе-на-чипе нам известны куда более важные подробности.

Подробности

Внутренней жизнью Apple T1 и его взаимодействием с внешним миром (с MacBook Pro в данном случае) управляет операционная система bridgeOS. Специально разработанная для этой задачи, детальное описание которой в 2016 году было закрытой информацией.

Систему не стали разрабатывать с нуля, технически говоря это подмножество iOS, как и другие публичные iOS-подобные операционный системы. В качестве начальной точки для её разработки была использована watchOS, из неё что-то удалили, в неё что-то добавили, но многое в ней уже было.

В системе-на-чипе использовался 32-битный процессор с архитектурой ARMv7, от Apple, скорее всего 1-ядерный, скорее всего очень похожий на процессор в Apple S1P или в Apple S2. Вопрос о конкретной природе процессора остался без ответа, но здравый смысл подсказывает наиболее вероятный вариант.

На кристалле системы-на-чипе располагался тот самый секретный анклав. О том что он есть рассказали всем. Его можно было, после неприятных и убийственных для микросхемы процедур, сфотографировать с помощью электронного микроскопа, даже в рентгеновских лучах или в ультрафиолете, но к чувствительные данные пользователя не будут раскрыты. Первое что происходит в самом начале вскрытия – система-на-чипе умирает. Визуальное изучение извилин головного мозга не может рассказать что и о чем думал их обладатель.

И, поскольку для Touch Bar пришлось изготовить iOS-устройство, генетически связанное с Apple Watch, а задачи Touch Bar не слишком сильно отличались от типичных задач других iOS-устройств, Apple T1 поручили и его. Графический процессор MacBook Pro не участвует в отображении “картинок” на этой разноцветной полоске. Это делает Apple T1.

То есть, какой-то графический процессор на этом кристалле есть – но сведений о нем нет.

Результаты вскрытия могли бы дать ответ на многие из вопросов оставшихся без ответа.

О чиподёрах

Компания Chipworks, известная снимками с поверхности дальних космических миров кристаллов Apple Ax различных модификаций, которую я так неуважительно (сожалею) отнес к чиподёрам, вскрывала и исследовала и другие чипы от Apple.

Но делала она это вовсе не из любопытства. Она вовсе не “бесприбыльная организация”, и существует не на пожертвования. Она вскрывает и анализирует чипы не только от Apple, в том числе и абсолютно секретные – на заказ, за приличные компенсации. Чипы которые не могут не вызвать интерес, вскрываются и изучаются заранее – но чтобы получить доступ к этой информации, нужно платить.

Вскрытие и анализ Apple Ax – это очень успешная рекламная кампания.

Каждый следующий Apple Ax демонстрировал любопытным от природы их возможности.

Chipworks зарабатывает этим на жизнь. А также на оплату труда экспертов высочайшей квалификации, дорогое прецизионное оборудование (для чиподёрских нужд), и, думаю, на урегулирование неизбежно возникающих конфликтов с некоторыми из производителей чипов. По условиям договора с клиентами, публикация результатов вскрытия в открытых источниках информации запрещается.

Если в открытых источниках обнаруживается снимок, который запрещено публиковать, его удаляют (как минимум), и наверняка делают все чтобы подобное не повторилось.

Apple не скрывает информацию о своих чипах. Она её просто не публикует, считая что эти подробности 99,999% их клиентов абсолютно неинтересны. Только и всего.

Продолжение следует

Обсудить историю Apple вы можете в нашем Telegram-чате.

USB-C (Thunderbolt 3): Останется только один

В июне 2015 года Intel объявила об окончании войны между USB и Thunderbolt, длившейся четыре долгих года. Внутри Intel. Между подразделениями компании. Пока обозреватели цитировали классиков марксизма (“Либо одно, либо другое победит” – не догадаешься ни за что), для Thunderbolt 3 решили использовать разъём USB-C. Естественно, с поддержкой USB 3.1 Gen 2, иначе бы их не поняли. Получилось универсальное решение, но оваций они дождутся не скоро.

Изобилие всевозможных разъёмов на компьютерных корпусов успокаивало и внушало уверенность в завтрашнем дне. В том, что выполнить любой каприз можно будет легко и удачно. И что “чужие”, те кто не готов тратить сотни часов своей единственной жизни на изучение всех этих стандартов, не рискнут с этим связываться, не хлынут толпами в такой уютный мир избранных, понимающих друг друга без слов.

BeBox, вид сзади:

Но производители компьютерной техники мечтали о прямо противоположном. О том что компьютеры будут продаваться десятками (а то и сотнями) миллионов экземпляров.

Сегодня в мире 2,5 миллиарда мобильных устройств и 2 миллиарда компьютеров. Большая их часть – легкие портативные компьютеры, с минимальным числом разъёмов на корпусах.

Но кому-то даже это их число показалось избыточным.

Это продолжение серии про Thunderbolt, предыдущие части здесь:

Первая часть: Раскат грома;
Вторая часть: Раскат грома, в цвете: Apple Thunderbolt Display.

Волан де Морт, обозначенный молнией Гарри Поттера

В разгар эпической войны Intel против Intel, на фоне разговоров про Гигабайты и прочие незначительные обстоятельства, такое никому не могло прийти в голову.

Thunderbolt, с самого начала его карьеры в реальном мире, притворялся чем-то иным, и в первой и второй версиях использовался стандартный разъём Mini DisplayPort. Несмотря на универсальный характер этой технологии, первой её областью применения стала передача видеосигнала от компьютера на внешние дисплеи.

Thunderbolt умел делать все, для чего использовался USB, но из-за необычного разъёма с захватом этой части рынка дела обстояли не слишком хорошо. Типичный компьютер эры гражданской войны предлагал несколько портов USB (обычно USB-3 с разъёмом типа A) и несколько портов Thunderbolt. Ассортимент внешних накопителей и другой периферии для USB был на порядок (если не на два) богаче ассортимента для Thunderbolt, обе технологии позволяли передавать энергию, обе были достаточно быстрыми для практических нужд.

Apple Thunderbolt Display был знаковым событием. Он был не просто дисплеем (для того времени очень передовым и неплохим), для “яблочных” ноутбуков он был чем-то вроде Duo Dock из начала 90-х. Подключался он через разъём Thunderbolt, и добавлял в небогатый, в большинстве случаев, набор разъёмов портативных Mac’ов три разъёма USB 2.0, разъёмы Ethernet (10/100/1000Base-T), Thunderbolt и Firewire 800. Через разъёмы USB, Thunderbolt и Firewire на подключенную периферию передавалась энергия.

Но в конце 2015 года то, чего не могло никогда произойти, произошло.

USB-C и Thunderbolt 3 – не одно и то же

Сначала, в 2014 году, Intel представила новый компактный разъём (высотой всего в 3 мм), в который штекер совместимого кабеля можно было вставлять как угодно: с точки зрения потребителя у него не было ни верха, ни низа. Но это было результатом работы “умной” электроники, подстраивавшейся под реальное положение дел. Это совсем нетрудно.

То же самое умеет разъём Lightning.

Изначально разъемы USB-C не имели никакого отношения к Thunderbolt. Это был разъём для новой версии USB, способной передавать до 10 Гбит/с. Первым в мире компьютером с этим разъёмом стал MacBook 2015 года.

Вот что про это рассказывал PC Mag весной 2015 года:

(Продолжительность 2 минуты и 9 секунд)

Это был USB 3.1 Gen 1 (типа “C”), со скоростью передачи данных в 5 Гбит/с. Фактически это USB 3.0 в новой геометрии. 10 Гбит/с – это USB 3.1 Gen 2. Но, как ни странно, этот разъём в MacBook использовался практически для всего, в том числе и для подключения внешнего дисплея. И вроде бы, жалоб не было.

А в 2015 кто-то в Intel догадался скрестить Гарри Поттера с Волан де Мортом, в результате чего у них в руках оказался убийственный по своей мощи коктейль.

В MacBook 2016 года использовался USB 3.1 Gen 2 (типа “C”), без поддержки Thunderbolt, но со скоростью передачи данных до 10 Гбит/с. В апреле 2016 года коктейль еще не стал достоянием общественности.

Избавление от вредных привычек – это боль

В MacBook Pro 2016 года, с TouchBar’ом вместо функциональных клавиш, использовались только разъёмы USB 3.1 Gen 2 (типа “C”), с поддержкой Thunderbolt 3. А в модели в стиле “ретро”, с функциональными клавишами, 2 разъёма Thunderbolt 3/USB-C дополняли два стандартных разъёма USB 3.1 Gen 2.

Разъёмы USB-C теперь использовались для зарядки батарей, подключения блока питания, внешних дисплеев (в том числе и сразу двух), накопителей и прочих устройств. И каждый из них был обозначен маленьким значком молнии.

А если кто-то, не читавший про Гарри Поттера, случайно подключит к порту с молнией обычное USB-устройство, ничего страшного не случится. USB поддерживается, на все 150%. Теперь это две части одной и той же технологии.

Разъём MagSafe пал смертью храбрых, портативные Mac’и утратили небольшую, но крайне привлекательную, особенность. Объединять с Intel усилия для разработки MagSafe C даже не попытались. И даже понятно почему: внесение каких-либо специфических изменений в конструкцию разъёмов USB-C (только для Apple) было бы неразумно.

Было очевидно что это – только начало. То, что было раньше, внезапно устарело. Другие разъёмы и кабели (DisplayPort, HDMI, Ethernet и даже обычный USB 3.1 Gen 2) никуда не делись, в мире их до сих пор очень много – но они обречены.

Продолжение следует

Предлагаем подписаться на наш канал в «Яндекс.Дзен». Там вы сможете найти эксклюзивные материалы, которых нет на сайте.