(no subject)
Sep. 24th, 2021 02:48 pmКстати о тензорных ядрах и TOPS.
Как я несколько лет назад говорил будет в качествен нишевого решения специализированные матриные процессоры. тогда же я описывал почему это е будет иметь особого смысла.
Теперь их назвали тензорные ядра AI и так далее. Но суть то сложение, премножение и деление матриц. ( тогда я прошёлся и по квантовому бреду) Конечно если ваша задача связана с этими задачами то скорость вычисление растёт на порядок и более.
Однако если нет ..... Реальное бытовое применение это интерполяция изображений. Конечно nVidia выкатило DLSS и первая версия его оказалась дермищем . Так как делалось следующее нужно вывести избрадение 3К при этом все обсчёты и текстуризация проводятся в 2К то есть 1080p потом тензорные ядра обрабатывают картинку. В итоге - а в итоге выходит замыливание картинки. Привет 1998 год. В итоге вся выгода от снижения нагрузки при обсчёте в два раза сьедается тем что качество картинки падает и на общих планах весьма существенно так что лучше не повышать разрешение отключить DLSS и будет визуально картинка лучше. Текстуры четче, очертания обьектов без глитчей.
Конечно потом выкатила технологию DLSS 2 , где глитчи границ обьектов - которых я не видел со времён ATI Radeon 9800 убрали. При этом нагрузка возросла в полтора раза что говорит о том что улучшение технологии связано с каркасной моделью обьектов которая ставится в исключение. И картинка матрицы прочитывается с предварительным исключением каркасной модели. И это типа мега ноухау и секрет. ... для кого ?
Смысл в технологии DLSS 2 есть. Однако если у вас не очень хорошее зрение как у 60% геймеров. И поэтому они просто не видят что делает эта технология. Кроме того она действительно улушает эффекты дисперсии света - почему картинка в Киберпанке на nVidia с DLSS 2 лучше чем на остальных видеокартах - там очень убогая текстурная модель, текстуры откровенно плохого качества - все претензии к художникам. Из-за этого эффекты освещения исправляют их жесточайший как бы это назвать ... мм ХАЛТУРА короче. Они рисовали текстуры откровенно забив на них без души ради бабок. И в современных играх это очень часто почему они и сморятся просто ужасно при адских системных требованиях. Если отключить Ray Tracing и DLSS 2 картинка становится такой как будто игра 2010 года. Даже ассасины начала 2012 были лучше по тектурной обработке изображения. Хотя там убогие корявые графические модели - ибо там хер забивали не художники а 3D скульпторы. Но они со временем исправились.
Суть технологии по сути состоит в том чтобы ухудшить картинку но так чтобы вы этого не заметили 80% случаев у 60% зрителей.
Если же вы человек требовательный то вам эта технология вредна. И вам нужно честное разрешение - какой смысл себя обманывать ? Луше поставить 2К а не 3К и картинка будет в общем то практически такой же.
А сколько стоит эта технология ? Не в деньгах а в затратах площади кристалла и энергопотребления ?
Кк реализует её нвидиа - они используют обычный блок вычислений с одиночной точностью, но используют его в половинном режиме физически это выглядит как стоит переключатель который массив триггеров на вычисление с одиночной точностью переключает битовую маску на два куска.
То есть было по 4 байта а стало по 2 байта. Однако этого мало и есть массив который чисто по 2 байта.
Затраты это то что теперь образно говоря всё пространство вычисления разбито не на 4 байтные блоки а на 2 байтные пюс затраты транзисторов на переключение и дополнительный конвеер.
Когда матричные вычисления не работают дополнительные конвееры не влияют на тепловыделение и энергопотребления. они просто отключены. Однако арбитражные блоки повышают латентность примерно на 25% и энергопотребление на 8% а чтобы компенсировать это nVidia увеличивает количество конвееров и улучшает охлаждающие системы. Естественно допонительные конвеера это плюс тепловыделения и энергопотребления.
Плюстехнологический предел, но требования маркетинга плевать на него хотели. В итоге современные видеочипы греются адски и потребление у них просто огромное. 10 лет назад такое и представить не могли. Сейчас никого уже не удивишь БП на 1000 и более ватт. А ведь 10 лет назад это были БП для экстремалов разгона.
То есть оычный не научный пользователь за то чтобы его картинка стала хуже (искючение дисперсное рассеивание света) платит больше. А для самого вычислительного ядра это означает рост запросов площади ядра на 10-15% ( современные ядра огромны по сравнению с прошлыми) а энергопотребление и тепловыделение при всём прочем равном это выходит +20%. И это при этом что бы хоть как то сэкономить часть 2 битовых кусков пихается в промежутки между стандартными 2*2 кусками - уменьшая зазор а значит привет ускоренная диффузия особенно при особенности ULV . В общем артефакты появятся очень быстро при постоянном использовании под нагрузкой. Современые видеокарты не будут жить долго. Они уже чаще умирают. А второй способ это использовать бытые блоки 2*2 где уцелел один конвеер. Где на арбитражный триггер ставится постоянный лок. И это ядро работает только как тензорное. Так же что бы упростить использование куски матричного процесора который поверх видео процессора обьединяются в CU о которых вам и говорят маркетологи. Сама эта сегментированность чисто условная.
Соответсвенно когда работают ядра обоих типов ( а точнее режимов но и типов тоже) то вы получается нагрев и энергопотребление просто запредельное. Это уже не 20%. Так как эффект сложения - и уже водяное охлаждение на многоконвеерных огромных чипах никого не удивляют а скорее норма. Потому что воздушные системы просто не могут рассеять столько тепла и оно резко накапливается и - прощай камень. Видеокарты с воздушным охлаждением из топов живут уже гораздо меньше чем водяные или даже маслянные даже на андерклокинге.
А в целом то если вырубить вот эту прибамбасину. оставить её только для дисперсии света то энергопортебление, требование к системе охлаждения резко упадут а срок жизни чипа резко возрастёт. Потому те кто замеряют ( а таких обзоров вы сейчас и не встретите ибо КРАМОЛА, кто за такое платить будет ? ) видят что как только в дело вступают DLSS да нагрузка на GPU падает по сравнению с чистым режимом. А энергопотребление и тепловыделение резко растут. Да если у вас 8К монитор то если у вас есть игра поддерживающая 8К - еслитам художники и 3Д скульпторы не схалтурили, то вы можете включить 8К на видеокарте которая честно считать их не может. И она отчситает их в 4К Картинка будет обработана. и если у вас зрение как у 60% геймеров мы сможете гордиться что у вас настоящий 8К - но в реальности....
Монитор стоит сто тысяч минимум за 50 дюймов тв. Монитор 400 тысяч этот 38 дюймов монитор. То есть играть на этом стдя рядом не комфортно. И сидя далеко вы разницы в картинке между 4K и 8К не увидите. При чем 99% а не 60% не увидит в играх разницы из-за особенностей восприятия динамической картинке на таком удалении. А те 1% что увидят если они не будут заниматься самообманом увидят и то что картинка не совсем 8К. И вот а право себя обманывать и при этом так что они даже не смогут увидеть честного различия люди платят а компании впаривают.
В итоге же получается то что матричные вычисления нужны реально в гораздо меньших количествах чем предлагают их производители чипов. А предлагают их они потому - потому что нет никакого реального полезного массового применения этим вычислениям. Криптопсихоз это не полезное применение а вредительство и тюльпанная лихорадка которая кончится очень плохо. Уже скока трупов.
Да есть научные задачи - например астронавигация, интерполяция, спасение испорченного фото и видеоматериала где это просто находка.
Только массовому потребителю это не нужно. А маркетинг требует впаривать.
В итоге ну выходит то выходит.
Интересно наблюдать на этом фоне за производителями тв приставок.
Почему они ? Смартьфоны это хайповая лохоразводная тема. Никакого отношения к реальным потребностям она никогда не имела. 90% устройств куплены ради хайпа и понта а не потому что его функциональный набор был нужен. Поэтому производители пихают туда всё на что клюнет лох. Понтовое - на хер не нужное.
А вот устройства менее хайповые там производитель чипов считает каждый цент . осбенно если коробка бюджетная. И всякого говна не пихает.
Так вот на этом рынке есть три производителя это Amlogic - это аналог Intel самые передовые, но самые жадные. Rockchip - это аналог AMD. и Allwiner ну это аналог VIA. Про последних говорить смысла нет они отстают всегда, отстают сильно и их последний чип H616 опоздал по сравнению с остальными на два года это аналог первого поколения S905X. Rockchip у них была череда провалов но с появлением 3399 они как амд воспряли. А RK3566 стал ну как аналог Zen+ у AMD - их начали снова массово покупать.
И что мы наблюдаем ? как только начался хайп по тензорным ядра, по TOPS мерилкам (это членомерка) и AM и RK выпустили свои чипы с ними. S905X3 и RK3566. У S905X3 их 1,2 у RK3566 0,8 но у RK у фагманов в TOPS вообще много а Am поскромнее. При этом RK3566 стал хитом по той же причине что и Зен+ - встройка там G52 а не кастрат G31 и она подходит и для игор. На лицо копирование маркетинговой стратегии. А Am жадничает и не хочет ставитьт в бюджетники G52 и ставит G31 которые по сути перелицованные Mali-400 которым давно пора умереть. Хотя по транзисторам выгоды в этом нет и по энергопотреблению +3 ватта в пике для стационарного устройства не важно. Просто маркетинг.
Но вот в 2020 новый хайп AV1 - а так как Amlogic компания серьёзная и маститая они собирают отзывы. И выяснилось что вот эти 1,2 TOPS при чем для них был отдельный от видекарты массив потому что технологии nVidia таким карликовым рынка копеечным не доступны. так вот выяснилось что всё что он делает это адски греет приставки. Почему в экс СССР их колхозят ставя свои радиаторы побольше. В пользы то нет вообще никакой.
Для вывода видеопотака аппаратный кодек даёт гораздо больше.
В играх картинка G31 на столько убитый труп на уровне видеоядра Intel G31 чипсета что какие нахер игры. Тем более что нужна специальная поддержка этой ухудшалки если её нет то хорошо если нет. а если есть коробка греется так что может летом и сгореть.
А при этом RK 3566 в котором TOPS в полтора раза меньше, технология грубее - официально RK 22 nm в Китае SMIC но честно, и 14 Am но как всегда реально 20 нм ибо кочуют то старый Самсунг то UMC. коороче контрактное производство GloFo на старых мощностях когда они не заняты и не дороги в коллективных сборках на фотошаблонах.
Но при этом он оказался куда востребование у пользователей потому что там всё что нужно есть нормальней, а то что не нужно TOPS этот - ну он тоже есть но нафиг не нужен но когда не работает и ладно. Однако реализация AI сопроцессора у RK не своя а покупная и она меньше чем у Am в три раза да и 0,8 TOPS завышено. Но опять таки ои верно поняли что ради хайпа должно быть, но так то реалной пользы не будет. И пользователи потом похвалят их не не нужные TOPS а за G52.
И всё у них хорошо однако выкатили AV1. И нужно добавлять аппартную поддержку потому что это всё таки слабенькие камешки и без неё они с AV1 хорошо если 1080*30 смогут а может и не смогут. Нет на самом деле смогут. Но нагруженно.
Am оказалась в ситуации когда у неё есть проблемный S905X3 и если впихнуть в него что то ещё - здраствуй кулер от настолки. И какое они нашли решение ? Они выкинули AI ядро. В четвертом поколении S905X4 его нет. И вместо него воткнули AV1 декодер. Так как они в авангарде и разработали его сами а не купили у например Броадкома IP, то ядро получилось опять довольно горячим. Но 4K120кадров - воспроизводить кибергеймеров видео, он вполне справляется. При том что видеоядро осталось овощное некро G31. тоесть как играть на нём было нельзя таки нет, как при браузинге подлагивало так и подлагивает.
Но замечательно тут то что это первая фирма признавшая что тензорные ядра нахуй не нужны. Потому что в бытовом применении им места нет. Да они прекрасны для конкретных научных задач - но не для бытового общественного применения. И решение - избавиться от него.
Оба лидера анонсировали много разных чипов но по понятным причинам все они после этих двух не вышли.
Но интересно тут то что оба отказываются от идеи матричных процессоров как тупиковой. Конечно сейчас благодаря S905X4 Amlogic очень сильно бортанула Rockchip - её 3566 до этого бывший самым восстребованым чипом резко устарели. Потому что назначение IPTV приставки это именно воспроизведение видео. А Игор вторичен. Rockchip как то впал в оцепенение и пока не знает как реагировать. Ибо в его планах не было массового чипа с поддержкой AV1 они в попыхах добавили заявление что оно будет в RK3588 который так и не вышел потому что они ищут у кого купить AV1 ядро подешевле. Но опять таки даже если это выйдет это будет топовая модель. А основной рынок Rockchip это нищие как Индия или РФ. А аналога S905X4 у Rockchip нет. А против RK3588 уже заготовлен S908X который в отличии от RK3588 задержан по маркетинговым соображениям - чтобы продать остатки S912X тем более что у конкурента нет AV1 декодера в виде IP.
Ну а важность AV1 обьяснять не надо - все стриминговые сервисы переходят на него. Нетфликс Гугл в первых рядах.
Ну и отступление от того что AIхайп туфта и уже признаки отрезвления появились - ну об этом я и писал.
Это о тв приставках вообще - пожалуй с ноября 2020 года они наконец вступили в зрелую форму. Как некогда китайски планшеты и телефоны в 2012-13 годах. Вспомните какой ужас был до того. Собственно с выходом массовых изделий на S905X3 и RK3566 эти устройства стали полноценными домашними медиацентрами. На них можно осуществлять практически все повседневные задачи как на компьютере но всё это за 5-8 ватт в час !!!!. Компьютер теперь нужен для PC гейминга и тяжелой графической и математической работы. Чистый андроид позволяет ивсе офисные задачи делать тоже на этом устройстве. Их мощность сейчас как мощность ПК 2008 года. G52 с двумя ядрами которые ставят в приставки это Geforce GT9500. ЦП аналогично первому Core2Duo E6300. Помните сколько ел такой компьютер ?
По сути если к RK3566 добавить AV1 декодер и выпустить например RK3567, установить на него 12 Андроид где исправили кой какие косяки с производительностью 11 андроида. То 80% персоналка понадобиться только для одного - для PС игр. И будет сэкономлена уйма электричества.
Почему S905X4 на такую роль не очень ? Mali G31 не хватает для комфортного пользования интернетом. Все браузеры используют ускорение отрисовки за счёт видеочипа. Однако G31 для современных браузеров слишком устарел. Да виновады кодеры веба и браузеров но есть то что есть. G52 нужен не столько для игрушек - хотя андроид игра на большом экране без тормоза как на эмуляторах (не все тормозят Droid4X не тормозит потому что на виртуальной машине OracleVM но имеет огромные проблемы с совместимостью ибо проект заброшен) - это тоже довольно приятный бонус для многих. Но отображение тяжелых страниц где авторы выделываются тоже требует видеоядра. Но и AV1 масштабно внедряется и нужен аппаратный декодер что бы не было лагов и тупо летом ТВ приставка не сгорела.
Пока что такого универсального чипа дешёвого, массового, нет. Но по сути всё для этого уже есть - всё что нужно это Rockchip добавить к его успешному RK3566 точно также вырезав не нужное AI ядро AV1 декодер. Вот это уже будет настоящее начало эпохи как в 2014 году Readme Read Rice а после это Сяоми и глобальное доминирование на 90% рынка андроид смартфонов китайских фирм.
Когда персоналки а потом и ноутбуки некогда появившиеся в наших домах начнут терять свою значимость уступая таким копеечным - а цена их на Алиэкспресс от 1800 рублей начинаются и до 4 тысяч рублей. Устройствам. При этом каждое из них сэкономит 30-40 киловатт в месяц. И работает абсолютно беззвучно.
Чтобы как то соперничать с эти и появился Alder Lake - но Интел макетологи просчитались. Они не понимают какие и почему ТВ приставки покупают люди. Что это устройство будет по прежднему шумное, потребляющее больше энергии или просто дорогое. Они не понимают что в мире больше продаются RK3566 чем RK 3399 . Что переход от газовых лампочек случился не тогда когда светодиодные показали меньше потребление в пять раз, а когда они начали стоить меньше доллара. А когда они стоили 15-20 долларов они были не особо то кому и нужны.
Людям в повседневном использовании не нужен дорогой компьютер. Вообще не нужен. Им нужен интернет. Собственно я помню статью 1996 года про NetPC ну Оракл оказался полностью прав но просто опередил своё время на 25 лет. тогда сотрудники этой компании предсказали что со временем людям дома не понадобятся полноценные ПК. Провал Хромбука тогда в 2014 убедил что нет это туфта. Но ошибка тогда была в том что NetPC это не ноутбук. да 00е эпоха ноутбуков. Все мы были с ними. Но это на самом деле лишь костыль для удалённой работы. Но реально NetPC не об этом а о домашнем центре коммуникации. Ведь без интернета сейчас компьютер вообще мало кто использует. как давно вы смотрели ДВД ? 90% ответит ну года два три а то и более. Но все смотрят онлайн сервиса. Все что то читают и пишут в интернете. А автономное использование сводится к оффлайн играм, и профессиональному использованию - которое опять таки у 80% офисное.
Соответсвенно Гугл тогда правильно понял идею о том что полноценный компьютер большинству не нужен. Но они ошиблись лишь в одном - схема использования.
Если человеку не нужен полноценный компьютер то ему нужен не дорогой ноутбук, ему ноутбук не нужен вообще - ноутбук это признак рабочего на поводке или номада. Но люди то живут стационарно в основном. Человеку ноутбук нужен был потому что егоможно рядом поставить и на небольшом 14-15 максимум 17 дюймов экране посмотреть кино, поговорить с роднёй в скайпе. Но теперь ватсап и можно говорить с много чего. А что всегда есть у человека дома ? правильно - БОЛЬШОЙ ЭКРАН это или монитор 24-32 дюйма или телевизор 24-48 дюймов. У него УЖЕ есть большой экран. Всё что ему нужно это устройство которое сделает его умнее - так появились Смарт ТВ - но у смарт ТВ есть ещё одна особеность - там начинка на момент его разработки - её нельзя просто взять и заменить. Кроме того нормальному человеку не нравиться когда его телевизор стучит на него. 1984. Мыслевизор. Должна быть возможность отключения. И вот эти коробочки они лучше всего.
И китайцы это поняли очень давно - первые устройства вышли уже в 2013 году в виде HDMI брелков - но возможности их были весьма ограниченные - как на китайских телефонах 00х. И вот только сейчас они достигли возможности миниПК - которые из-за своей цены и интерфейса были вещью нишевой. Универсальная операционная система в стиле винды большинству в домашем использовании просто не нужна.
Им нужна система на дебила как Андроид. Умный сделает рут. Глупый не залезет куда не надо.
Ну и последний довод экология понимаешь ну и экономия 200-300 рублей в месяц. Ну и - тишина. Поэтому я полагаю что за такими домашними медиацентрами копеечными будущее. И не только из-за обнищания народа хотя и это тоже. А просто потому что полноценный ПК 80% людей не используют и на 10% его возможностей. Основное именно специализированное использование ПК это тупо игры. При чем в половине случаев это игры которые вполне идут на таком вот ТВ боксе.
А AIхайп это просто чушь как и Криптоафера. Просто обман.
Как я и говорил матричные вычисления в будущем будут осуществлятся устройствами под это специально предназначенными и купленными, а если они не конфедециальны и вовсе в облаках. И это будут лишь очень специализированные группы людей. А в массовом применении это не нужно. Исключение алгоритмы распознавания лиц и обьектов. Вот там это будет массово. А остальное будет чисто научные суперкомпьютеры. А хайп делается чтобы за это заплатил Лох.
Как я несколько лет назад говорил будет в качествен нишевого решения специализированные матриные процессоры. тогда же я описывал почему это е будет иметь особого смысла.
Теперь их назвали тензорные ядра AI и так далее. Но суть то сложение, премножение и деление матриц. ( тогда я прошёлся и по квантовому бреду) Конечно если ваша задача связана с этими задачами то скорость вычисление растёт на порядок и более.
Однако если нет ..... Реальное бытовое применение это интерполяция изображений. Конечно nVidia выкатило DLSS и первая версия его оказалась дермищем . Так как делалось следующее нужно вывести избрадение 3К при этом все обсчёты и текстуризация проводятся в 2К то есть 1080p потом тензорные ядра обрабатывают картинку. В итоге - а в итоге выходит замыливание картинки. Привет 1998 год. В итоге вся выгода от снижения нагрузки при обсчёте в два раза сьедается тем что качество картинки падает и на общих планах весьма существенно так что лучше не повышать разрешение отключить DLSS и будет визуально картинка лучше. Текстуры четче, очертания обьектов без глитчей.
Конечно потом выкатила технологию DLSS 2 , где глитчи границ обьектов - которых я не видел со времён ATI Radeon 9800 убрали. При этом нагрузка возросла в полтора раза что говорит о том что улучшение технологии связано с каркасной моделью обьектов которая ставится в исключение. И картинка матрицы прочитывается с предварительным исключением каркасной модели. И это типа мега ноухау и секрет. ... для кого ?
Смысл в технологии DLSS 2 есть. Однако если у вас не очень хорошее зрение как у 60% геймеров. И поэтому они просто не видят что делает эта технология. Кроме того она действительно улушает эффекты дисперсии света - почему картинка в Киберпанке на nVidia с DLSS 2 лучше чем на остальных видеокартах - там очень убогая текстурная модель, текстуры откровенно плохого качества - все претензии к художникам. Из-за этого эффекты освещения исправляют их жесточайший как бы это назвать ... мм ХАЛТУРА короче. Они рисовали текстуры откровенно забив на них без души ради бабок. И в современных играх это очень часто почему они и сморятся просто ужасно при адских системных требованиях. Если отключить Ray Tracing и DLSS 2 картинка становится такой как будто игра 2010 года. Даже ассасины начала 2012 были лучше по тектурной обработке изображения. Хотя там убогие корявые графические модели - ибо там хер забивали не художники а 3D скульпторы. Но они со временем исправились.
Суть технологии по сути состоит в том чтобы ухудшить картинку но так чтобы вы этого не заметили 80% случаев у 60% зрителей.
Если же вы человек требовательный то вам эта технология вредна. И вам нужно честное разрешение - какой смысл себя обманывать ? Луше поставить 2К а не 3К и картинка будет в общем то практически такой же.
А сколько стоит эта технология ? Не в деньгах а в затратах площади кристалла и энергопотребления ?
Кк реализует её нвидиа - они используют обычный блок вычислений с одиночной точностью, но используют его в половинном режиме физически это выглядит как стоит переключатель который массив триггеров на вычисление с одиночной точностью переключает битовую маску на два куска.
То есть было по 4 байта а стало по 2 байта. Однако этого мало и есть массив который чисто по 2 байта.
Затраты это то что теперь образно говоря всё пространство вычисления разбито не на 4 байтные блоки а на 2 байтные пюс затраты транзисторов на переключение и дополнительный конвеер.
Когда матричные вычисления не работают дополнительные конвееры не влияют на тепловыделение и энергопотребления. они просто отключены. Однако арбитражные блоки повышают латентность примерно на 25% и энергопотребление на 8% а чтобы компенсировать это nVidia увеличивает количество конвееров и улучшает охлаждающие системы. Естественно допонительные конвеера это плюс тепловыделения и энергопотребления.
Плюстехнологический предел, но требования маркетинга плевать на него хотели. В итоге современные видеочипы греются адски и потребление у них просто огромное. 10 лет назад такое и представить не могли. Сейчас никого уже не удивишь БП на 1000 и более ватт. А ведь 10 лет назад это были БП для экстремалов разгона.
То есть оычный не научный пользователь за то чтобы его картинка стала хуже (искючение дисперсное рассеивание света) платит больше. А для самого вычислительного ядра это означает рост запросов площади ядра на 10-15% ( современные ядра огромны по сравнению с прошлыми) а энергопотребление и тепловыделение при всём прочем равном это выходит +20%. И это при этом что бы хоть как то сэкономить часть 2 битовых кусков пихается в промежутки между стандартными 2*2 кусками - уменьшая зазор а значит привет ускоренная диффузия особенно при особенности ULV . В общем артефакты появятся очень быстро при постоянном использовании под нагрузкой. Современые видеокарты не будут жить долго. Они уже чаще умирают. А второй способ это использовать бытые блоки 2*2 где уцелел один конвеер. Где на арбитражный триггер ставится постоянный лок. И это ядро работает только как тензорное. Так же что бы упростить использование куски матричного процесора который поверх видео процессора обьединяются в CU о которых вам и говорят маркетологи. Сама эта сегментированность чисто условная.
Соответсвенно когда работают ядра обоих типов ( а точнее режимов но и типов тоже) то вы получается нагрев и энергопотребление просто запредельное. Это уже не 20%. Так как эффект сложения - и уже водяное охлаждение на многоконвеерных огромных чипах никого не удивляют а скорее норма. Потому что воздушные системы просто не могут рассеять столько тепла и оно резко накапливается и - прощай камень. Видеокарты с воздушным охлаждением из топов живут уже гораздо меньше чем водяные или даже маслянные даже на андерклокинге.
А в целом то если вырубить вот эту прибамбасину. оставить её только для дисперсии света то энергопортебление, требование к системе охлаждения резко упадут а срок жизни чипа резко возрастёт. Потому те кто замеряют ( а таких обзоров вы сейчас и не встретите ибо КРАМОЛА, кто за такое платить будет ? ) видят что как только в дело вступают DLSS да нагрузка на GPU падает по сравнению с чистым режимом. А энергопотребление и тепловыделение резко растут. Да если у вас 8К монитор то если у вас есть игра поддерживающая 8К - еслитам художники и 3Д скульпторы не схалтурили, то вы можете включить 8К на видеокарте которая честно считать их не может. И она отчситает их в 4К Картинка будет обработана. и если у вас зрение как у 60% геймеров мы сможете гордиться что у вас настоящий 8К - но в реальности....
Монитор стоит сто тысяч минимум за 50 дюймов тв. Монитор 400 тысяч этот 38 дюймов монитор. То есть играть на этом стдя рядом не комфортно. И сидя далеко вы разницы в картинке между 4K и 8К не увидите. При чем 99% а не 60% не увидит в играх разницы из-за особенностей восприятия динамической картинке на таком удалении. А те 1% что увидят если они не будут заниматься самообманом увидят и то что картинка не совсем 8К. И вот а право себя обманывать и при этом так что они даже не смогут увидеть честного различия люди платят а компании впаривают.
В итоге же получается то что матричные вычисления нужны реально в гораздо меньших количествах чем предлагают их производители чипов. А предлагают их они потому - потому что нет никакого реального полезного массового применения этим вычислениям. Криптопсихоз это не полезное применение а вредительство и тюльпанная лихорадка которая кончится очень плохо. Уже скока трупов.
Да есть научные задачи - например астронавигация, интерполяция, спасение испорченного фото и видеоматериала где это просто находка.
Только массовому потребителю это не нужно. А маркетинг требует впаривать.
В итоге ну выходит то выходит.
Интересно наблюдать на этом фоне за производителями тв приставок.
Почему они ? Смартьфоны это хайповая лохоразводная тема. Никакого отношения к реальным потребностям она никогда не имела. 90% устройств куплены ради хайпа и понта а не потому что его функциональный набор был нужен. Поэтому производители пихают туда всё на что клюнет лох. Понтовое - на хер не нужное.
А вот устройства менее хайповые там производитель чипов считает каждый цент . осбенно если коробка бюджетная. И всякого говна не пихает.
Так вот на этом рынке есть три производителя это Amlogic - это аналог Intel самые передовые, но самые жадные. Rockchip - это аналог AMD. и Allwiner ну это аналог VIA. Про последних говорить смысла нет они отстают всегда, отстают сильно и их последний чип H616 опоздал по сравнению с остальными на два года это аналог первого поколения S905X. Rockchip у них была череда провалов но с появлением 3399 они как амд воспряли. А RK3566 стал ну как аналог Zen+ у AMD - их начали снова массово покупать.
И что мы наблюдаем ? как только начался хайп по тензорным ядра, по TOPS мерилкам (это членомерка) и AM и RK выпустили свои чипы с ними. S905X3 и RK3566. У S905X3 их 1,2 у RK3566 0,8 но у RK у фагманов в TOPS вообще много а Am поскромнее. При этом RK3566 стал хитом по той же причине что и Зен+ - встройка там G52 а не кастрат G31 и она подходит и для игор. На лицо копирование маркетинговой стратегии. А Am жадничает и не хочет ставитьт в бюджетники G52 и ставит G31 которые по сути перелицованные Mali-400 которым давно пора умереть. Хотя по транзисторам выгоды в этом нет и по энергопотреблению +3 ватта в пике для стационарного устройства не важно. Просто маркетинг.
Но вот в 2020 новый хайп AV1 - а так как Amlogic компания серьёзная и маститая они собирают отзывы. И выяснилось что вот эти 1,2 TOPS при чем для них был отдельный от видекарты массив потому что технологии nVidia таким карликовым рынка копеечным не доступны. так вот выяснилось что всё что он делает это адски греет приставки. Почему в экс СССР их колхозят ставя свои радиаторы побольше. В пользы то нет вообще никакой.
Для вывода видеопотака аппаратный кодек даёт гораздо больше.
В играх картинка G31 на столько убитый труп на уровне видеоядра Intel G31 чипсета что какие нахер игры. Тем более что нужна специальная поддержка этой ухудшалки если её нет то хорошо если нет. а если есть коробка греется так что может летом и сгореть.
А при этом RK 3566 в котором TOPS в полтора раза меньше, технология грубее - официально RK 22 nm в Китае SMIC но честно, и 14 Am но как всегда реально 20 нм ибо кочуют то старый Самсунг то UMC. коороче контрактное производство GloFo на старых мощностях когда они не заняты и не дороги в коллективных сборках на фотошаблонах.
Но при этом он оказался куда востребование у пользователей потому что там всё что нужно есть нормальней, а то что не нужно TOPS этот - ну он тоже есть но нафиг не нужен но когда не работает и ладно. Однако реализация AI сопроцессора у RK не своя а покупная и она меньше чем у Am в три раза да и 0,8 TOPS завышено. Но опять таки ои верно поняли что ради хайпа должно быть, но так то реалной пользы не будет. И пользователи потом похвалят их не не нужные TOPS а за G52.
И всё у них хорошо однако выкатили AV1. И нужно добавлять аппартную поддержку потому что это всё таки слабенькие камешки и без неё они с AV1 хорошо если 1080*30 смогут а может и не смогут. Нет на самом деле смогут. Но нагруженно.
Am оказалась в ситуации когда у неё есть проблемный S905X3 и если впихнуть в него что то ещё - здраствуй кулер от настолки. И какое они нашли решение ? Они выкинули AI ядро. В четвертом поколении S905X4 его нет. И вместо него воткнули AV1 декодер. Так как они в авангарде и разработали его сами а не купили у например Броадкома IP, то ядро получилось опять довольно горячим. Но 4K120кадров - воспроизводить кибергеймеров видео, он вполне справляется. При том что видеоядро осталось овощное некро G31. тоесть как играть на нём было нельзя таки нет, как при браузинге подлагивало так и подлагивает.
Но замечательно тут то что это первая фирма признавшая что тензорные ядра нахуй не нужны. Потому что в бытовом применении им места нет. Да они прекрасны для конкретных научных задач - но не для бытового общественного применения. И решение - избавиться от него.
Оба лидера анонсировали много разных чипов но по понятным причинам все они после этих двух не вышли.
Но интересно тут то что оба отказываются от идеи матричных процессоров как тупиковой. Конечно сейчас благодаря S905X4 Amlogic очень сильно бортанула Rockchip - её 3566 до этого бывший самым восстребованым чипом резко устарели. Потому что назначение IPTV приставки это именно воспроизведение видео. А Игор вторичен. Rockchip как то впал в оцепенение и пока не знает как реагировать. Ибо в его планах не было массового чипа с поддержкой AV1 они в попыхах добавили заявление что оно будет в RK3588 который так и не вышел потому что они ищут у кого купить AV1 ядро подешевле. Но опять таки даже если это выйдет это будет топовая модель. А основной рынок Rockchip это нищие как Индия или РФ. А аналога S905X4 у Rockchip нет. А против RK3588 уже заготовлен S908X который в отличии от RK3588 задержан по маркетинговым соображениям - чтобы продать остатки S912X тем более что у конкурента нет AV1 декодера в виде IP.
Ну а важность AV1 обьяснять не надо - все стриминговые сервисы переходят на него. Нетфликс Гугл в первых рядах.
Ну и отступление от того что AIхайп туфта и уже признаки отрезвления появились - ну об этом я и писал.
Это о тв приставках вообще - пожалуй с ноября 2020 года они наконец вступили в зрелую форму. Как некогда китайски планшеты и телефоны в 2012-13 годах. Вспомните какой ужас был до того. Собственно с выходом массовых изделий на S905X3 и RK3566 эти устройства стали полноценными домашними медиацентрами. На них можно осуществлять практически все повседневные задачи как на компьютере но всё это за 5-8 ватт в час !!!!. Компьютер теперь нужен для PC гейминга и тяжелой графической и математической работы. Чистый андроид позволяет ивсе офисные задачи делать тоже на этом устройстве. Их мощность сейчас как мощность ПК 2008 года. G52 с двумя ядрами которые ставят в приставки это Geforce GT9500. ЦП аналогично первому Core2Duo E6300. Помните сколько ел такой компьютер ?
По сути если к RK3566 добавить AV1 декодер и выпустить например RK3567, установить на него 12 Андроид где исправили кой какие косяки с производительностью 11 андроида. То 80% персоналка понадобиться только для одного - для PС игр. И будет сэкономлена уйма электричества.
Почему S905X4 на такую роль не очень ? Mali G31 не хватает для комфортного пользования интернетом. Все браузеры используют ускорение отрисовки за счёт видеочипа. Однако G31 для современных браузеров слишком устарел. Да виновады кодеры веба и браузеров но есть то что есть. G52 нужен не столько для игрушек - хотя андроид игра на большом экране без тормоза как на эмуляторах (не все тормозят Droid4X не тормозит потому что на виртуальной машине OracleVM но имеет огромные проблемы с совместимостью ибо проект заброшен) - это тоже довольно приятный бонус для многих. Но отображение тяжелых страниц где авторы выделываются тоже требует видеоядра. Но и AV1 масштабно внедряется и нужен аппаратный декодер что бы не было лагов и тупо летом ТВ приставка не сгорела.
Пока что такого универсального чипа дешёвого, массового, нет. Но по сути всё для этого уже есть - всё что нужно это Rockchip добавить к его успешному RK3566 точно также вырезав не нужное AI ядро AV1 декодер. Вот это уже будет настоящее начало эпохи как в 2014 году Readme Read Rice а после это Сяоми и глобальное доминирование на 90% рынка андроид смартфонов китайских фирм.
Когда персоналки а потом и ноутбуки некогда появившиеся в наших домах начнут терять свою значимость уступая таким копеечным - а цена их на Алиэкспресс от 1800 рублей начинаются и до 4 тысяч рублей. Устройствам. При этом каждое из них сэкономит 30-40 киловатт в месяц. И работает абсолютно беззвучно.
Чтобы как то соперничать с эти и появился Alder Lake - но Интел макетологи просчитались. Они не понимают какие и почему ТВ приставки покупают люди. Что это устройство будет по прежднему шумное, потребляющее больше энергии или просто дорогое. Они не понимают что в мире больше продаются RK3566 чем RK 3399 . Что переход от газовых лампочек случился не тогда когда светодиодные показали меньше потребление в пять раз, а когда они начали стоить меньше доллара. А когда они стоили 15-20 долларов они были не особо то кому и нужны.
Людям в повседневном использовании не нужен дорогой компьютер. Вообще не нужен. Им нужен интернет. Собственно я помню статью 1996 года про NetPC ну Оракл оказался полностью прав но просто опередил своё время на 25 лет. тогда сотрудники этой компании предсказали что со временем людям дома не понадобятся полноценные ПК. Провал Хромбука тогда в 2014 убедил что нет это туфта. Но ошибка тогда была в том что NetPC это не ноутбук. да 00е эпоха ноутбуков. Все мы были с ними. Но это на самом деле лишь костыль для удалённой работы. Но реально NetPC не об этом а о домашнем центре коммуникации. Ведь без интернета сейчас компьютер вообще мало кто использует. как давно вы смотрели ДВД ? 90% ответит ну года два три а то и более. Но все смотрят онлайн сервиса. Все что то читают и пишут в интернете. А автономное использование сводится к оффлайн играм, и профессиональному использованию - которое опять таки у 80% офисное.
Соответсвенно Гугл тогда правильно понял идею о том что полноценный компьютер большинству не нужен. Но они ошиблись лишь в одном - схема использования.
Если человеку не нужен полноценный компьютер то ему нужен не дорогой ноутбук, ему ноутбук не нужен вообще - ноутбук это признак рабочего на поводке или номада. Но люди то живут стационарно в основном. Человеку ноутбук нужен был потому что егоможно рядом поставить и на небольшом 14-15 максимум 17 дюймов экране посмотреть кино, поговорить с роднёй в скайпе. Но теперь ватсап и можно говорить с много чего. А что всегда есть у человека дома ? правильно - БОЛЬШОЙ ЭКРАН это или монитор 24-32 дюйма или телевизор 24-48 дюймов. У него УЖЕ есть большой экран. Всё что ему нужно это устройство которое сделает его умнее - так появились Смарт ТВ - но у смарт ТВ есть ещё одна особеность - там начинка на момент его разработки - её нельзя просто взять и заменить. Кроме того нормальному человеку не нравиться когда его телевизор стучит на него. 1984. Мыслевизор. Должна быть возможность отключения. И вот эти коробочки они лучше всего.
И китайцы это поняли очень давно - первые устройства вышли уже в 2013 году в виде HDMI брелков - но возможности их были весьма ограниченные - как на китайских телефонах 00х. И вот только сейчас они достигли возможности миниПК - которые из-за своей цены и интерфейса были вещью нишевой. Универсальная операционная система в стиле винды большинству в домашем использовании просто не нужна.
Им нужна система на дебила как Андроид. Умный сделает рут. Глупый не залезет куда не надо.
Ну и последний довод экология понимаешь ну и экономия 200-300 рублей в месяц. Ну и - тишина. Поэтому я полагаю что за такими домашними медиацентрами копеечными будущее. И не только из-за обнищания народа хотя и это тоже. А просто потому что полноценный ПК 80% людей не используют и на 10% его возможностей. Основное именно специализированное использование ПК это тупо игры. При чем в половине случаев это игры которые вполне идут на таком вот ТВ боксе.
А AIхайп это просто чушь как и Криптоафера. Просто обман.
Как я и говорил матричные вычисления в будущем будут осуществлятся устройствами под это специально предназначенными и купленными, а если они не конфедециальны и вовсе в облаках. И это будут лишь очень специализированные группы людей. А в массовом применении это не нужно. Исключение алгоритмы распознавания лиц и обьектов. Вот там это будет массово. А остальное будет чисто научные суперкомпьютеры. А хайп делается чтобы за это заплатил Лох.