techwork: (Default)
techwork ([personal profile] techwork) wrote2017-06-13 05:25 pm

Технологический предел процессоров

И так мы находимся на завершающей точке развития законна Мура. Когда количество транзисторов в процессорах удваивается каждые два года.
0,54307 нм это размер решётки кристаллического кремния используемого в производстве микросхем. Именно на него ане на размер атома надо ориентироваться. Хотя и на размер атома но только в графеновые технологиях позволяющих что то там уменьшить.
Надо понимать что с текущей технологией разработанной IBM совместно с GF и Samsung которая назвается 5 нм. но по сути это улучшенная 7 нм технология ограничитель на размер ноды 10 пролётов решётки. Собственно это и есть теоретически достижимый минимум кремния. Что бы организовать устойчивый p-n переход в количеств двух штук и что бы не образовался тунельный эффект и наводки от соседних нод требуется 10 пролётов и не забываем что мы должны прибавить диаметр 1 атома у кремния. если вы не понмаете почему то вы дебил и я вам не смогу рассказать весь курс школьной физики. Ну потому что так сказал Иисус и Аллах и Будда с Яхве - Так есть - примите.
0,54307*10+0,24=5,6707 нм Это минимальный размер ноды который реально а не теоретически достижим. Собственно IBM только что это реализовала. назвав это 5 нм.
А что дальше ?. Но сначала надо понять а что сейчас.
Сейчас только у Интел есть реально массовая технология 10 нм с приемлимым выходом годных. Она вполне в законе мура и вопросов нет. У Самсунг и GF технология 11 нм. У остальных и того хуже. Китайцы и вовсе занялись рисованием не существующих у них нанометров за 10 нм выдавая 13 нм технологию. Но дальше на техпроцес 7-5 последний реальный, а не виртуальный уже будет тяжёлый переход. И даже Интел не уверены что успеют его вписать в закон Мура. Поэтому сейчас релизятся куча всяких дезовых роадмапов как от AMD так и от Intel и никто не знает когда и что на самом деле выйдет.
Почему ? Да потому что возникли сложности с выходом годных. Да прототип есть и вышел малой серией , а выход годных там такой что процессор ниже 2000 долларов долго не опустится в цене даже и выйди они. Даже на 10 нм выход годных 50-70% в зависимости от фаба. И больше 70% не поднять никак. Т.е. 10 нм чипы будут стоить в полтора раза дороже 14 нм всегда. А меньше ... 15-20% годных а процессорах это мало. На память выход 60% и он вполне нормален. Хотя память на 7 нм будет дороже 10 нм в 1,7 раза всегда.
Intel не зная удасться ли решить проблему вовремя зароадмапил Icelake. Да выйдет и 7 нм камень тысяч за пять долларов и кто то его даже купит так или иначе. НО тут есть ещё один момент - стоимость ватт-доллар-производительность. Он более менее держался но еслипроблемы продолжатся то уже в 2018 году он будет нарушен. Что бы как то это оттянуть АМД и Интел пошли на увеличение количества ядер процессоров. АМД анонсировал 16 ядерный процессор и он таки выйдет ибо проект уже на заводе. А вот с остальным туманно и мутно. Всё дело в том что технология используемая сейчас в настольных Интел не позволяет более 12 ядер. Связано это И !!! с тем что ядра от Интел больше на 15% чем ядра от АМД. Да они во многих задачах быстрее но больше. Кроме того у Интел немного больше требованя к минимальному объёму кеша. Раньше Интел не замечал этого опережая всех по технологиям. Но сейчас уже не так прекрасно.
К чему это приведёт ? Если эти компании сейчас не выдержат темп это приведёт к краху криптовалют считаемых на процессорах.
Криптовалюте требуется постоянный рост вычислительных мощностей но с тем что бы рост сложности вычислений был меньше чем прирост мощности/затраты. Которые зависят от стоимости железа и энергопотребления железа. Для криптовалют есть главный ограничитель - затратный предел. Когда затраты на вычисления становятся дороже полученной криптовалюты (которые по сути облигации), а затраты складываются из стоимости оборудования, его обслуживания, сооружений датацентров и ЭНЕРГИИ!!!. Когда развитие технологий встаёт железо снижает скорость удешевления, однако энергоэффективность падает в геометрической прогрессии так как для поддержания скорости получения денег требуется всё больше и больше карт в той же прогрессии что и усложнение алгоритма. А если алгоритм не усложнять то криптовалюта подвергнется гиперинфляции. Так что толькорост энергозатрат. Несложно вычислить зависмость увеличения сложности вычислений и количества потребляемой энергии и роста затрат на оборудование и датацентры.
Так вот - крах криптовалют близок . Кто то скажет а я на виеокарта - я отвечу - а ты мой пушистый зверёк не заметил что у видеокарт кристаллы стали по 600 мм а карты потребляют по 450 вт и водяное охлаждение в стоке. Такое это очень хреновый симптом. Это значит что им уже расти некуда.
Titan X можно принять за единицу. она сделана по 28 нм технологии. Она кстати уже производительность на ватт никакая. Но позволяет чётко увидеть предел роста производительности видеокарт. Этот предел - 4 Titan X. По сути тот у кого в компе стоит четыре Titan X может протестировать и он получит производтельность последней кремневой видеокарты которая будет. Только она потреблять энергии будет в четыре раза меньше чем эта сборка. Аналогично тот кто купит 16 ядерный AMD Ryzen 27 июля 2017 года купит процессор который морально никогда не устареет. Потому что именно такими и будут рядовые домашние машины в 2027 году и 2037 году. Снизится только энергопотребление и появятся боле дорогие версии. Да 40 ядер максимум. Но толку от них уже особого для домашних задач не будет. Всё - рост единичной производительности кончен. Что это означает ? То что и видеокарты не в меньшей, а даже в большей степени испытывают предел технологий. Благодаря биткоину они развивались быстрее процессоров. Но обратная сторона этого в том что они достигнут энергопредела даже раньше процессоров. По сути осталось... ну GP107 делается о технологи 14 нм. следующая итерация уже 10 нм и ВСЁ. дальше да появятся карты на 7 и 5,6707нм но стоить будут адово. И явно не для криптовалют такой товар. Почему кстати видеокарты и отстают по техпроцессам от процессоров, они используют только массовый дешёвый процесс. процесс 7-5 станет дешёвым очень не скоро. Хотя если производители пойдут на жертвы 7 нм всё таки станет массовым в срок что бы не нарушить закон Мура. По энергии - легко можно снизить потребление в два раза. Но это ПРЕДЕЛ. Дальше ещё в два раза будет сложно и дорого.
Таким образом вырисовывается картина весьма интересная.
По процессорам.
Сейчас оба производителя будут наращивать ядра, хотя смысла особого в этом нет для обычных вычислений. Но предел даже на 5,6707 нм у Intel 36 ядер. AMD 40 ядер. Больше просто не возможно да и это водяное охлаждение обязательно ну ли монстромедный с огромным кулером девайс. Это всё на этом развитие вычислительной техники кончится. Но закон мура кончится раньше а криптовалюта на процессорах начнёт проседать ещё раньше. Закон мура кончится на 7 нм. Когда придёт время следующей итерации техпроцесса готового для этого с нормальным выходом не будет. Это кристмас 2018 год. Криптовалюта вычисляемая на процессорах дорожает по энергостратам как и видеокартная давно, но более менее синхронно с ростом валют. Однако опережающий рост энергозатрат начнётся в сентябре 2017. Примерно год после этого останется до краха таких валют. На видеокартах ситуация примерно такая же с той разницей что там энергозатраты стали расти ещё два года назад с опережением. И сейчас их спасает только перераздутие пузыря биткоина а также жульнические криптовалюты-пирамиды с заранее нагенерённым количеством валюты принадлежащей основателям. Последняя итерация на 10 нм ещё как то оттянет конец. Ну так что бы он произошёл синхронно с криптовалютой на процессорах.
Так же это где то на пол года может оттянуть обрушение нефти до 22-24 долл за барель.
В итоге срок смерти скорее всего это лето 2019 +-(0,5-1) год. Как раз Интел и АМД снимут все сливки с 7 нм процесса а 5,6707 нм так долго элитным и останется. После этого последует полный крах ИТ индустрии аналогичный схлопыванию доткомбабла, но куда более масштабный. Раз в триста.
После этого будет три года "Смертельной Битвы". Её переживут не все ИТ компании. Полностью вымрет 30% интернет компаний. Из оставшихся 99% сменят владельцев будучи проданными по смешным ценам. На рынке мобильных телефонов произойдёт тоже самое что с ТВ произошло в своё время. Сейчас телевизор это ящик стоящий у большинства 10-15 лет. Да эти ящики продаются но сверхприбыли на них нет. Там много чего произойдёт , может и я из чего извлеку выгоду поэтому рассказывать не буду. Кстати труд программиста подешевеет при этом не сильно всего процентов на 30. И я не буду говорить почему.
Ну а 3 нм - ну есть тестовые схемы из девяти нод, но они не стабильны. А что бы мур не сдох они должны пойти в серию в 2020 году. А сейчас 2017, а они в таком состоянии как будто 2010. Т.е. не ранее 2027 года. А вот дальше 2,64 нм опуститься просто физически не возможно. Кстати 2 - 64 у кого то прикольное чуство юмора. Предел развития ИТ положить в цифрах 2 и 64 двойка в шестой степени. Если вспомнить стандартный вавилонский магический круг там та же хрень. Ну то что иудеи с 19 века выдают за звезду Давида это та фигня что в этом магическом круге нарисована. Симвология соединение двух людей мужчины и женщины. ммм занятно.
Да а дальше что ? А ничего. Все разработки которые сейчас есть это вещи более теоретические чем реальные.
Никакие квантовые компьютеы обычным пользователям не помогут. Да есть специализированные компьютеры которы за один такт решают массив матриц но простому человеку это совершенно ничего не даст - не свестелок не перделок, не чего то полезного. Есть всякие теоретические технологии НО
даже наиболее перспективные оптические технологии это всего лишь повышение частоты интерконнекта. Что даст ну например ускорение скорости обмена между блокам памяти, но никак не вычислений общего порядка. Т.е. решения очень дороги а дают преимущества по очень конкретным действиям местам. Дальше только экстенсивное развитие. А именно - больше кристалов в одном чипе. Но тут проблема тепловыделения. Но благодаря технологии HBM используемой в AMD Fiji или технологии HMC используемой Fujitsu в её суперкомпьютерах возможно вынести кеш L2 из процессора. И набрать его куда большими объемами таким методом, а внутреннее пространство кристалла использовать для новых ядер. По сути архитектура видеокарт уже такая. Таким образом мы можем получить 128 ядерные процессоры. И даже 256 ядерные ... правда на водяном охлаждении. И возникают большие вопросы об утилизации ядер. Ведь даже 16 домашние приложения не могут зачастую нагрузить корректно, Возникают постоянныеперекосы в нагрузке и всё упирается в самое загруженное ядро. Есть технология разгона такого ядра и отключения соседних чтобы не нарушать термопакет, но .... 5 ггц а дальше ? В общем всё край. и 128 ядерные машины свнешним кешем покупать уже будут только под рабочие станции где такое решение смогут утилировать. А домашний комп будет 16 ядер. И 10 и 20 лет спустя.

[identity profile] techwork.livejournal.com 2018-07-03 11:45 am (UTC)(link)
Крах уже произошёл - уже сейчас биткоин , как впрочем и другие криптовалюты, стоят меньше стоимости майнинга С 11 июня полка по энергобалансу майнинга. Т.е. по сути майнинг начал падать. Пока что ситуация - у меня есть нечто что стоит тысячу долларов но нет никого кто бы купил это за тысячу долларов. Курс биткоина 6500 но никто не купит его по этой цене. Рынка покупки нет. Тоже по ETH RM и прочему KC.
В итоге намайненные хеши лежат на дисках, иногда транзакцируются для скрытых покупок - выполняя роль хавалы. Но обьёмы транзакций падают. Как падает и обьём майнинга. Люди держат пока оборудование - потому что взяли на высокой - не отбили и думают как бы отбить . При этом лаг есть только у тех кто ворует электричество или сидит на солнце- ветре- выравнивании суточных колебаний ( проммайнинг ночью если имеет ночную скидку). Если его покупать просто по сетевым ценам то уж всё. Полный ноль с 11 числа. Не говоря ещё о неотбитом железе.
С 11 числа авито забит предложениями " ну совсем новых" карт пока по зверским ценам. Но это только начало.

С 20 до 6 это не крах ? А куча самоубийц "криптоевангелистов" говорит об обратном. И ещё раз нет покупки биткоина внешними, да стоить то он стоит - но для кого ? Это как облигация обанкротившегося банка, номинал лона стоит - но кто её по этому номиналу купит ? Это не акция которая уже ничего не стоит. Это облигация - но только вот гасить её нечем.

Нейросети то как раз вычислительные мощности ещё как любят. Именно прорыв в cell в своё время дал им начало ( проц из PS3) сейчас же за 10 лет они приобрели закономерное развитие. Алгоритмы нейросетей очень простые - они пишутся ну 400-500 человеко часов это уже полноценная нейросеть типа гугловской. Это очень мало. Обучение их требует огромного потока данных и итераций их обработки.
Например алгоритм нейросети которая используется в тойоте от Люксофта типа , на самом деле алгоритм использовавшийся в комплексе Гранит. Советская оборонка. Т.е. начало 80х. А вот обучение его это только где то десять лет назад стало доступно полноценно. До того тупо не хватало вычислительных мощностей и количества вводных.

Куда дальше ? это вопрос риторический потому что ещё раз - ты не понимаешь о чем говоришь. Ты это в предыдущем вопросе показал.

Но вот индустрия собственно чипов всё- приехали. Алгоритмы же это не алгоритмы - а чистота написания кода. Но уровень кодеров резко упал. В тоже время разрабатывается псевдо ИИ. Который позволит избавится и от QA и от Jun кодеров. Мартышки станут просто не нужны. Но тут можно долго говорить о типах компиляторов - не вижу в этом смысла. Скажу что будущее за самыми скоростными языками - ИИ для себя любит ASM C на худой конец C++ хотя ООП это плохо но это самый железный из ООП. Все остальные сдохнут даже Java. Будущее за процедурными языками. НО тут будет другой баланс занятости - просто кодеры станут не нужны - понадобятся ученые с навыками процедурного и графического программирования. ООП и тем более интерпретируемые языки не смотря на свою кросплатформеность нет куда оптимизировать. Начиная с 6 версии Java нет прироста скорости - есть перебалансировка проритетов и изменение синтаксиса для ускорения написания. Да и до того проблемы были только в неверном управлении памятью и мусоре. Т.е. нет ресурса что бы оптимизировать.
Собственно об этом я и писал.

[identity profile] http://users.livejournal.com/_sim_/ 2018-07-04 05:20 am (UTC)(link)
>>> Крах уже произошёл - уже сейчас биткоин , как впрочем и другие криптовалюты, стоят меньше стоимости майнинга

Спекулянты выводят деньги. Всё то же самое что и с крахом доткомов и тюльпанной лихорадкой 500 лет назад, спекулянты пришли, кто в теме урвали куш, остальные потеряли вложенное. Я кстати заработал на росте курса нормально так, но думал что крах будет при 200$ и на этом курсе вывел. Зато легально всё было, позже в России запретили юридическим лицам работать с биткоинами, выводить стало чуть сложнее.
Остатками оплачивал телефон, удивляло что платитишь 1$, комиссия 10$, и зачисление до суток. Биткоин бред какой-то, он не жизнеспособен и давно должен был умереть, но спекулянты вмешались. Есть другие коины, они более интересные и продуманные. Биткоин это первая версия все таки.

Нейросети ни разу не просты. Базовые понятия просты, а когда надо подбирать структуру нейросети, тут уже темный лес, нейросеть нужно заточить над решаемую задачу, универсального решения нет.
Вот пример эволюции чисто программной части, с Хабра:
... Впервые нейронные сети привлекли всеобщее внимание в 2012 году, когда Алекс Крижевски благодаря им выиграл конкурс ImageNet (грубо говоря, это ежегодная олимпиада по машинному зрению), снизив рекорд ошибок классификации с 26% до 15%, что тогда стало прорывом. ...

Был прорыв тогда, и сегодня каждый день идут улучшения в работе программ и нейросетей, на том же железе получаем на порядок лучшие результаты. Уровень кодеров конечно же вырос, так как предыдущее поколение не могло показать высокие результаты по распознанию.
ИИ любит Питон, там работа с матрицами написана на низкоуровневом языке, работает быстро, работа со структурой нейросети на языке высокого уровня. Питон стандарт для нейросетей.

[identity profile] techwork.livejournal.com 2018-07-04 07:16 am (UTC)(link)
Как они выводят если никто не покупает ? Кто сейчас покупает криптовалюты ? Ну ? и Какие обьёмы ?

И чем же эти "продуманные" отличаются ? Названием ?

Меньше читай хабр - там много херни. Нейросети имеют очень долгую историю. И в 2012 это уже не было новинкой. Системы визуального распознавания бум начался в 2006 году. Системы обработки BigData тогда же. Аналогично и проект ИИ от Гугла был запущен тогда же. Первые попытки графического программирования вообще 2003 год. На форексе трендовый анализ в 2007 тоже стали использовать некоторые. Для этого были нужны такие технологии как cell CUDA FireStream множественный паралелизм. Раньше конечно были VLIW но были не развиты технологии кремния. Они не давали нужного результата, плюс системы хранения данных именно тогда случился прорыв в развитии жёстких дисков и был преодолён предел в 80 гигов. Стали использовать многомодную структуру магнитной записи. Что привело к тому что жёсткие стали хрупкими.

Когда тогда прорыв и что есть прорыв - конкретно можешь сказать ? Я могу но зачем мне тратить время? убеди.

Ты ничего не знаешь о оптимизаци алгоритмов и компиляторов. Питон это язык вообще интерпретируемый - т.е. априорно параша в разы медленнее компилируемого. Он с динамической системой типов что требует арбитра - затраты. Он ООП - что тоже очень плохо так как тоже затраты, и вообще динамический.
Если говорить примитивно и оценивать уровнем 0 прямой ввод битов 1 ASM то по 10 бальной шкале где 10 графическое програмирование и преобразование из текстового описания отдалённости от железа он 7. Есть очень мало языков которые хуже. Естественно чем дальше от железа тем больше накладные расходы.
В нём нет никаких математических ускорителей как в Haskell который тоже более узкоспециализирован для матричных вычислений и который тоже дальше от железа чем C++ но всё же быстрее Java для некоторых вычислений.
В идеале любой ИИ должен писаться на ASM но это адова затрата человекочасов. Поэтому С который 2 уровень. С++ это 4 уровень, Haskell 5
Всё те ИИ что сейчас наиболее развиты написаны на языках не выше 5 уровня.
ООП это плохо но С++ на столько отточен, и на столько оптимизированы компиляторы что на данный момент он самый дешёвый способ написать нейросеть. Но все равно растёт спрос на C. Потому что он процедурный и статический что даже в теории всегда ближе к железу, и компилятор будет самый эффективный.
Да там на реализацию при написании тратится в десять раз больше кода чем для Java в 25 раз больше чм для Pyton требует большего внимания - но зато скорость работы будет выше.
Java популярна не просто так - она соблюдает баланс между человекочасами на реализацию и скоростью работы. Pyton ещё в два раза сокращает время разработки - но формирует худший байткод (избыточный и с мусором) и машина питоновская хуже джававской и по реализации но и по алгоритмическому пределу - короткие команды с кучей возможных свойств это по сути тоже самое что библиотеки в винде. Упрощают написание - но радикально снижают производительность. В среднем в три раза а по отдельным задачам до 20 раз. Джава и так не быстра а питон ... в итоге популярен он больше в РФ где всё госструктура и важны сроки а не скорость. Например в клиент банковском софте, Сайтах где можно было бы обойтись в десять раз боле слабым железом - но оно дёшево - заказчик заплатит.