techwork: (Default)
techwork ([personal profile] techwork) wrote2017-06-13 05:25 pm

Технологический предел процессоров

И так мы находимся на завершающей точке развития законна Мура. Когда количество транзисторов в процессорах удваивается каждые два года.
0,54307 нм это размер решётки кристаллического кремния используемого в производстве микросхем. Именно на него ане на размер атома надо ориентироваться. Хотя и на размер атома но только в графеновые технологиях позволяющих что то там уменьшить.
Надо понимать что с текущей технологией разработанной IBM совместно с GF и Samsung которая назвается 5 нм. но по сути это улучшенная 7 нм технология ограничитель на размер ноды 10 пролётов решётки. Собственно это и есть теоретически достижимый минимум кремния. Что бы организовать устойчивый p-n переход в количеств двух штук и что бы не образовался тунельный эффект и наводки от соседних нод требуется 10 пролётов и не забываем что мы должны прибавить диаметр 1 атома у кремния. если вы не понмаете почему то вы дебил и я вам не смогу рассказать весь курс школьной физики. Ну потому что так сказал Иисус и Аллах и Будда с Яхве - Так есть - примите.
0,54307*10+0,24=5,6707 нм Это минимальный размер ноды который реально а не теоретически достижим. Собственно IBM только что это реализовала. назвав это 5 нм.
А что дальше ?. Но сначала надо понять а что сейчас.
Сейчас только у Интел есть реально массовая технология 10 нм с приемлимым выходом годных. Она вполне в законе мура и вопросов нет. У Самсунг и GF технология 11 нм. У остальных и того хуже. Китайцы и вовсе занялись рисованием не существующих у них нанометров за 10 нм выдавая 13 нм технологию. Но дальше на техпроцес 7-5 последний реальный, а не виртуальный уже будет тяжёлый переход. И даже Интел не уверены что успеют его вписать в закон Мура. Поэтому сейчас релизятся куча всяких дезовых роадмапов как от AMD так и от Intel и никто не знает когда и что на самом деле выйдет.
Почему ? Да потому что возникли сложности с выходом годных. Да прототип есть и вышел малой серией , а выход годных там такой что процессор ниже 2000 долларов долго не опустится в цене даже и выйди они. Даже на 10 нм выход годных 50-70% в зависимости от фаба. И больше 70% не поднять никак. Т.е. 10 нм чипы будут стоить в полтора раза дороже 14 нм всегда. А меньше ... 15-20% годных а процессорах это мало. На память выход 60% и он вполне нормален. Хотя память на 7 нм будет дороже 10 нм в 1,7 раза всегда.
Intel не зная удасться ли решить проблему вовремя зароадмапил Icelake. Да выйдет и 7 нм камень тысяч за пять долларов и кто то его даже купит так или иначе. НО тут есть ещё один момент - стоимость ватт-доллар-производительность. Он более менее держался но еслипроблемы продолжатся то уже в 2018 году он будет нарушен. Что бы как то это оттянуть АМД и Интел пошли на увеличение количества ядер процессоров. АМД анонсировал 16 ядерный процессор и он таки выйдет ибо проект уже на заводе. А вот с остальным туманно и мутно. Всё дело в том что технология используемая сейчас в настольных Интел не позволяет более 12 ядер. Связано это И !!! с тем что ядра от Интел больше на 15% чем ядра от АМД. Да они во многих задачах быстрее но больше. Кроме того у Интел немного больше требованя к минимальному объёму кеша. Раньше Интел не замечал этого опережая всех по технологиям. Но сейчас уже не так прекрасно.
К чему это приведёт ? Если эти компании сейчас не выдержат темп это приведёт к краху криптовалют считаемых на процессорах.
Криптовалюте требуется постоянный рост вычислительных мощностей но с тем что бы рост сложности вычислений был меньше чем прирост мощности/затраты. Которые зависят от стоимости железа и энергопотребления железа. Для криптовалют есть главный ограничитель - затратный предел. Когда затраты на вычисления становятся дороже полученной криптовалюты (которые по сути облигации), а затраты складываются из стоимости оборудования, его обслуживания, сооружений датацентров и ЭНЕРГИИ!!!. Когда развитие технологий встаёт железо снижает скорость удешевления, однако энергоэффективность падает в геометрической прогрессии так как для поддержания скорости получения денег требуется всё больше и больше карт в той же прогрессии что и усложнение алгоритма. А если алгоритм не усложнять то криптовалюта подвергнется гиперинфляции. Так что толькорост энергозатрат. Несложно вычислить зависмость увеличения сложности вычислений и количества потребляемой энергии и роста затрат на оборудование и датацентры.
Так вот - крах криптовалют близок . Кто то скажет а я на виеокарта - я отвечу - а ты мой пушистый зверёк не заметил что у видеокарт кристаллы стали по 600 мм а карты потребляют по 450 вт и водяное охлаждение в стоке. Такое это очень хреновый симптом. Это значит что им уже расти некуда.
Titan X можно принять за единицу. она сделана по 28 нм технологии. Она кстати уже производительность на ватт никакая. Но позволяет чётко увидеть предел роста производительности видеокарт. Этот предел - 4 Titan X. По сути тот у кого в компе стоит четыре Titan X может протестировать и он получит производтельность последней кремневой видеокарты которая будет. Только она потреблять энергии будет в четыре раза меньше чем эта сборка. Аналогично тот кто купит 16 ядерный AMD Ryzen 27 июля 2017 года купит процессор который морально никогда не устареет. Потому что именно такими и будут рядовые домашние машины в 2027 году и 2037 году. Снизится только энергопотребление и появятся боле дорогие версии. Да 40 ядер максимум. Но толку от них уже особого для домашних задач не будет. Всё - рост единичной производительности кончен. Что это означает ? То что и видеокарты не в меньшей, а даже в большей степени испытывают предел технологий. Благодаря биткоину они развивались быстрее процессоров. Но обратная сторона этого в том что они достигнут энергопредела даже раньше процессоров. По сути осталось... ну GP107 делается о технологи 14 нм. следующая итерация уже 10 нм и ВСЁ. дальше да появятся карты на 7 и 5,6707нм но стоить будут адово. И явно не для криптовалют такой товар. Почему кстати видеокарты и отстают по техпроцессам от процессоров, они используют только массовый дешёвый процесс. процесс 7-5 станет дешёвым очень не скоро. Хотя если производители пойдут на жертвы 7 нм всё таки станет массовым в срок что бы не нарушить закон Мура. По энергии - легко можно снизить потребление в два раза. Но это ПРЕДЕЛ. Дальше ещё в два раза будет сложно и дорого.
Таким образом вырисовывается картина весьма интересная.
По процессорам.
Сейчас оба производителя будут наращивать ядра, хотя смысла особого в этом нет для обычных вычислений. Но предел даже на 5,6707 нм у Intel 36 ядер. AMD 40 ядер. Больше просто не возможно да и это водяное охлаждение обязательно ну ли монстромедный с огромным кулером девайс. Это всё на этом развитие вычислительной техники кончится. Но закон мура кончится раньше а криптовалюта на процессорах начнёт проседать ещё раньше. Закон мура кончится на 7 нм. Когда придёт время следующей итерации техпроцесса готового для этого с нормальным выходом не будет. Это кристмас 2018 год. Криптовалюта вычисляемая на процессорах дорожает по энергостратам как и видеокартная давно, но более менее синхронно с ростом валют. Однако опережающий рост энергозатрат начнётся в сентябре 2017. Примерно год после этого останется до краха таких валют. На видеокартах ситуация примерно такая же с той разницей что там энергозатраты стали расти ещё два года назад с опережением. И сейчас их спасает только перераздутие пузыря биткоина а также жульнические криптовалюты-пирамиды с заранее нагенерённым количеством валюты принадлежащей основателям. Последняя итерация на 10 нм ещё как то оттянет конец. Ну так что бы он произошёл синхронно с криптовалютой на процессорах.
Так же это где то на пол года может оттянуть обрушение нефти до 22-24 долл за барель.
В итоге срок смерти скорее всего это лето 2019 +-(0,5-1) год. Как раз Интел и АМД снимут все сливки с 7 нм процесса а 5,6707 нм так долго элитным и останется. После этого последует полный крах ИТ индустрии аналогичный схлопыванию доткомбабла, но куда более масштабный. Раз в триста.
После этого будет три года "Смертельной Битвы". Её переживут не все ИТ компании. Полностью вымрет 30% интернет компаний. Из оставшихся 99% сменят владельцев будучи проданными по смешным ценам. На рынке мобильных телефонов произойдёт тоже самое что с ТВ произошло в своё время. Сейчас телевизор это ящик стоящий у большинства 10-15 лет. Да эти ящики продаются но сверхприбыли на них нет. Там много чего произойдёт , может и я из чего извлеку выгоду поэтому рассказывать не буду. Кстати труд программиста подешевеет при этом не сильно всего процентов на 30. И я не буду говорить почему.
Ну а 3 нм - ну есть тестовые схемы из девяти нод, но они не стабильны. А что бы мур не сдох они должны пойти в серию в 2020 году. А сейчас 2017, а они в таком состоянии как будто 2010. Т.е. не ранее 2027 года. А вот дальше 2,64 нм опуститься просто физически не возможно. Кстати 2 - 64 у кого то прикольное чуство юмора. Предел развития ИТ положить в цифрах 2 и 64 двойка в шестой степени. Если вспомнить стандартный вавилонский магический круг там та же хрень. Ну то что иудеи с 19 века выдают за звезду Давида это та фигня что в этом магическом круге нарисована. Симвология соединение двух людей мужчины и женщины. ммм занятно.
Да а дальше что ? А ничего. Все разработки которые сейчас есть это вещи более теоретические чем реальные.
Никакие квантовые компьютеы обычным пользователям не помогут. Да есть специализированные компьютеры которы за один такт решают массив матриц но простому человеку это совершенно ничего не даст - не свестелок не перделок, не чего то полезного. Есть всякие теоретические технологии НО
даже наиболее перспективные оптические технологии это всего лишь повышение частоты интерконнекта. Что даст ну например ускорение скорости обмена между блокам памяти, но никак не вычислений общего порядка. Т.е. решения очень дороги а дают преимущества по очень конкретным действиям местам. Дальше только экстенсивное развитие. А именно - больше кристалов в одном чипе. Но тут проблема тепловыделения. Но благодаря технологии HBM используемой в AMD Fiji или технологии HMC используемой Fujitsu в её суперкомпьютерах возможно вынести кеш L2 из процессора. И набрать его куда большими объемами таким методом, а внутреннее пространство кристалла использовать для новых ядер. По сути архитектура видеокарт уже такая. Таким образом мы можем получить 128 ядерные процессоры. И даже 256 ядерные ... правда на водяном охлаждении. И возникают большие вопросы об утилизации ядер. Ведь даже 16 домашние приложения не могут зачастую нагрузить корректно, Возникают постоянныеперекосы в нагрузке и всё упирается в самое загруженное ядро. Есть технология разгона такого ядра и отключения соседних чтобы не нарушать термопакет, но .... 5 ггц а дальше ? В общем всё край. и 128 ядерные машины свнешним кешем покупать уже будут только под рабочие станции где такое решение смогут утилировать. А домашний комп будет 16 ядер. И 10 и 20 лет спустя.

[identity profile] lexpartizan.livejournal.com 2017-06-14 07:06 am (UTC)(link)
\\Всё дело в том что технология используемая сейчас в настольных Интел не позволяет более 12 ядер.

Процессор Intel Xeon Platinum 8176 предлагает 28 ядер и 56 потоков. Кроме того, в настольных райзенах тоже не более 8 ядер. Тредриппер- это уже другая платформа за другие деньги. Аналог Xeon. Тут скорее относится к серверам, а не настолкам.

К тому же конец кремнию не означает конец ИТ.
Akhan Semiconductor разработала процессор, который работает на частоте 100 ГГц. Для изготовления системы «алмаз на кремнии» использовались пластины диаметром 300 мм с применением 100 нм процесса.

Кроме того, возможны не только фон-неймановские архитектуры. Вполне разумно не пихать 200 одинаковых общих ядер, а некоторые ядра сделать специализированными. Например, под клеточные автоматы. Или ещё какие общие задачи.Кроме того, туда может быть встроен FPGA, который сможет менять архитектуру на лету.

Так что прекращение закона Мура может дать качественный скачок.
Edited 2017-06-14 07:07 (UTC)

[identity profile] techwork.livejournal.com 2017-06-14 04:29 pm (UTC)(link)
Не умничай тобе не идёт . В настольных интелах 12 ядер ограничения из-за кольцевой структуры QPI. Она больше тупо не поддерживает. А в ксеонах расширение есть своё которого в настольниках нет.

Нет треадриппер это настольная сиистема для энтузастов. socket TR4 (4064) это аналог socket LGA 2066 у интела. А массовый сокет AM4 (1331) аналог LGA 1151 у Intel . Серверный проц это Epyc он ещё не вышел.

А вот это уже простой пиздёжь. Сейчас в мире о своих таких " ну мы что то разработали" заявляет куча компаний. Но все отлично понимают что всё это ни что иное как "не говорите ему что он завтра умрёт".. Ты если бы учил физику как я хотя бы то знал бы что алмаз это не полупроводник. А так же если бы ты знал экономику то знал бы что тех процессы такими мелким мутными конторами с названием титулом московского царя новых технологий не разрабатывают. Эти просто стараются развести на пороге краха. Сейчас все метаются ищут технологи вот эти и под суетились. Скинуть акции на обещании а потом - извините не заработало. После 10 нм. есть надежда только на более широкое использования арсенида галия. (он уже используется) Что бы поднять штатную частоту до 5 гигагерц. Но это всё 16 ядер 5 гигагерц в штатном виде так и будет выглядеть домашний комп ближайшие 20 лет. А что там будет в суперкомпьютерах будет очень узко специализированно и по конским ценам. Например тот проц начала 2000х который очень быстро перемножает матрицы.

Ну так специализация ядер точнее не ядер а блоков в суперкомпьютерах и будет. Но какое это имет отношение к домашним компам. ?Использование одинаковых ядер уже не существует. В Процессорах есть кодеры декодеры и видео и криптопотоков естть ядра управления вычислтельными ядрами есть свой сетевой стек SOL . Однако дальше уже куда ? Ядра под типовые задачи и так УЖЕ используются, а ядра под общие задачи могут быть только одинаковыми. И причина этого в том что этоуниверсальная машина и не известно заранее какая будет задача. Что же касаемо суперкомпьютеров - там блочная структура всеравно и поэтому блоки можно перекомпоновать. А в одном кристале блоки не перкомпонуешь. Да можно отказаться от концепции CPU и в настольных системах благо HBM/HBC это позволяют Fujitsu уже внедряет эту технологию в свои процессоры планируя сделать несеметричную, настраиваемую технологию вычислений. НО каждый кристал будет увеличивать минимально возможную стоимость. И это в итоге да , будет машина настольного формата , но будет требовать водяного охлаждения и стоить пять-шесть тысяч долларов. Да производительность в настольном блоке Но блин за еденицу вычмсилительной мощности огоо, ну и блоки питания на 3-4 киловата в придачу, но это уже мелочи. Так что это уже не то что было где рост производительности был постоянен как и удешевление машин и стоимости еденицы вычислений.
А поскольку ты любишь фантастику как рабочая станция будет собираться в 2038. Человек приходит в центр продающий такие машины . Заказывает какие модули и в каком количестве ему собрать. Оплачивает и идёт домой. На модульный заводик (один на регион) идёт заказ. Там в готовые основы впаиваются составные модули . Ставится охлаждающая система подобранная по TDP и заказ отсылают в точку заказа. Ну а потом доставка .
Но ЦЕНА ... так что это будут именно рабочие станции под задачу. А вот все остальные будут использовать стандартный проц разработанный 20 лет назад в 2018 году.

[identity profile] lexpartizan.livejournal.com 2017-06-15 06:47 am (UTC)(link)
\\Ты если бы учил физику как я хотя бы то знал бы что алмаз это не полупроводник.

Эта проблема решена десятки лет назад. Если правильно помню, то туда бор добавляли.
На данный момент самый маленький алмазный транзистор - 50 нм.
Алмазные процессоры довольно старая разработка.

5 ГГц - предел только для кремния.
Будут искать другие материалы и архитектуры.
Производительность нужна и за неё будут бороться. Не сейчас, так потом.

Кроме того, если уж всё перейдёт на суперкомпы, то значит будет облачная архитектура с видеотрафиком.

[identity profile] techwork.livejournal.com 2017-06-15 07:05 am (UTC)(link)
Это чушь. Бор даже не встроится в кристалическую подложку алмаза. Алмаз может использоваться только как диэлекрическая подложка, плюс некоторые поверхностные явления но вовсе не те что нужны полупроводникам. Ты вообще выучихотя бы базовыо как формируются p-n переходы. И попробуй его сформировать ну хотя бы на мене стабильном железе.

Не сейчас это значит прекращение закона мура . А во вторых да потом когда нибудь после нашей смерти .Но ближайшие 20 лет именно так как я описал.

Всё не переёдёт на суперкомпы. Ты реально какой то медиапроект раз несёшь такую поебень после статей о техпроцессах.
Смотри суперкомьютер это не компьютер общего назначения. Он супер не потому что большой, и манфреймы таковые не потому чтобольшие или мощные, а потому что его архитектура заточена под конкретный набор задач, не выполнение любых задач вообще - а конкретно например перемножение матрц - и он это сделает превосходно, но только это векторные вычисления он тут же просядет ниже плинтуса. Аналогично и квантовые кубиты - он годятся для решения ограниченного количества математических функций. Они даже в теории не могут использоваться в универсальных компьютерах общего назначения. . Они будут работать медленнее 386 .
Поэтому не накакие суперкомпьютеры общие задачи не перейдут. Облако же совсем другое ( кстати у меня сертификат №13 по облакам в РФ) Так вот облака это то что несомненно будет НО это не суперкомпьютеры - это серверные системы из самых обычных процессоров. Просто удешевляется (в теории) их обслуживание. и Всё.

[identity profile] techwork.livejournal.com 2017-06-15 07:54 am (UTC)(link)
Можно и долларами топить костёр ,только вот ...

[identity profile] techwork.livejournal.com 2017-06-15 09:09 am (UTC)(link)
хммм а как раз квантовые компьютеры для векторных операций лучше, но при чём тут вычисления на видеокартах ? Вычисления на ядрах CUDA никакого отношения к векторным операциям не имеют.
Edited 2017-06-15 09:09 (UTC)

[identity profile] lexpartizan.livejournal.com 2017-06-19 10:49 am (UTC)(link)
Внедрение бора в кристаллическую решётку алмаза позволило создать проводимость p-типа. В 2003 удалось инвертировать естественную проводимость бора и создать проводимость n-типа.
Транзистор 50 нм из алмаза сделали ещё в далёком 2009.

Гугли Akhan Semiconductor.

На, почитай хоть статью на Хабре.
Гугли "Алмазная реанимация закона Мура".

Про квантовые комьютеры я и не утверждал, что они могут решать широкий спектр задач. Но если выйдет сделать квантовый комп при комнатной температуре (а такие разработки уже есть, одно из ядер может быть квантовым и выполнять конкретные алгоритмы). Как и другие ядра, не говоря уже о гибких FPGA.

[identity profile] lexpartizan.livejournal.com 2017-06-19 10:49 am (UTC)(link)
Майнинг умрёт вместе с криптовалютами, как только появится доступный квантовый компьютер.
Криптовалюты существуют только потому, что слишком сложно намайнить блок.
Если блок будет легко и быстро намайнить - то возможна генерация поддельных блоков, которые будут приняты за нормальные (ведь их как бы намайнило множество разных юзеров, ни у кого нет такой мощи в единоличном пользовании), а значит возможен не только майнинг битконйнов (что обрушит валюту), но и фальшивые транзакции. Вся система блокчейна со всеми криптовалютами окажется просто ничем.
Edited 2017-06-19 10:57 (UTC)

[identity profile] lexpartizan.livejournal.com 2017-06-19 10:52 am (UTC)(link)
CUDA тут вообщени при чём. Человек говорит, что рендеринг можно будет выполнять с помощью квантовых алгоритмов(алгоритмы, которые получают существенное ускорение на квантовом компьютере).
Личноя не знаю какие квантовые алгоритмы можно заюзать в рендеринге. Так что утверждать не буду.

Но есть один нюанс. Существует такой движок Unlimited Details, который утверждает. что они заменили рендеринг "функцией поиска видимых точек", а все модели заменены на "облака точек".

А вот для поиска квантовые алгоритмы существуют и прекрасно работают.
Edited 2017-06-19 10:53 (UTC)

[identity profile] techwork.livejournal.com 2017-06-19 12:16 pm (UTC)(link)
никаких квантовых компьюетеров не надо - ты вообще не понимаешь что такое квантовый компьютер. А что тот сотрудник что раньше был уволился ? Ведь видно как резко просело качество технических знаний акка.

[identity profile] techwork.livejournal.com 2017-06-19 12:19 pm (UTC)(link)
какой нахер рендеринг он о криптовалютах говорит.

[identity profile] techwork.livejournal.com 2017-06-19 12:20 pm (UTC)(link)
Ещё раз я про эту контору с титулом московского царя писал - развод.

[identity profile] lexpartizan.livejournal.com 2017-06-20 06:48 am (UTC)(link)
О том, что алмазный транзистор - реальность сообщали и другие конторы))

[identity profile] techwork.livejournal.com 2017-06-20 07:04 am (UTC)(link)
транзистор а алмазной подложке это таже самая технология что и транзистор на сапфире. Она очень махровых годов. Она не обеспечивает никаких преимуществ в скорости,только радиационную стойкость. А то о чём говоришь ты это развод.

[identity profile] Юрий Березов (from livejournal.com) 2017-09-17 03:40 pm (UTC)(link)
Хм, а с чего это заработок программиста уменьшиться на 30% ? Как раз таки наоборот потребуется больше возни с оптимизацией что бы все ядра задействовать, а не как сейчас, процессорам хоть "индусский" код давай - на все мощности хватает.

[identity profile] techwork.livejournal.com 2017-09-19 01:27 am (UTC)(link)
С того что это будет делать не программист а программа :) Одна программа.

[identity profile] Юрий Березов (from livejournal.com) 2017-09-24 07:57 pm (UTC)(link)
Есть сомнения насчет этого.

[identity profile] techwork.livejournal.com 2017-09-27 09:38 am (UTC)(link)
Сомнения легко уходят если покопаться в SDK к PS3 . А это уже позавчерашний день. Сегодня уже в реальности зачастую нет никакой необходимости в ручном тестировании. Так же если сравнит фреймворки сейчас и 10 лет назад абстракция от железа ушла на порядок. Ещё 10 лет назад ты был привязан к определённой платформе. Потому что то что было кросплатформенное тормозило нещадно. Теперь это уже не совсем так. Дальше перспектива ясна. Плюс в Японии ряд университетов разрабатывают псевдоАИ цель которых написание кода по ТЗ без участия человека в большинстве контейнеров и классов с полиморфизмом. А тестирование давно уже в нормальных конторах автоматизировано.

[identity profile] http://users.livejournal.com/_sim_/ 2018-07-02 09:02 pm (UTC)(link)
Криптовалюты автоматически подстраивают сложность вычислений под количество майнеров, больше майнеров, сложнее условия нахождения нового блока. Криптовалютам всё равно. Даже если деградируем до ZX Spectrum сложность вычислений будет снижаться по установленному алгоритму.

Краха тоже не будет, это игры спекулянтов, всё виртуальное. Вот Биткоин подешевел с 20к до 6к, и что? Краха нет. Появится конкурент, Дашкоин, Зерокаш и прочие, народ перейдет на них, если будут лучше и биткоин упадет до нуля, вот это будет забавно, когда останется один майнер на стареньком пентиуме, включая его на пару часов в день. Но система будет кое-как живая, транзакций тоже будет мизер.

На технологический прогресс, по моему, всем наплевать, скорости еще в 2005 году были такие, что всем хватало. Компьютеры 2010 года вполне комфортны для работы. Кроме совершенствования железа, улучшаются и алгоритмы, например сейчас шахматные алгоритмы на том же железе порвут алгоритмы 20-летней давности с большим отрывом. Не говоря о нейросетях, играющих в Го и постоянно совершенствующихся, в том числе по эффективности и скорости работы и обучения.

Плюс приятные бонусы SSD что делают компы 2005 года весьма бодрыми, скоростной интернет даже в деревне гигабиты и облака. Огромные IPS мониторы и т.п. Радует существенное снижение потребления энергии.

Далее прогресс пойдет вглубь, в этом тоже есть хорошие моменты, оптимизация кода, оптимизация инструкций процессора и структуры.

Ни одного побочного эффекта замедления не наблюдаю...

[identity profile] techwork.livejournal.com 2018-07-03 11:45 am (UTC)(link)
Крах уже произошёл - уже сейчас биткоин , как впрочем и другие криптовалюты, стоят меньше стоимости майнинга С 11 июня полка по энергобалансу майнинга. Т.е. по сути майнинг начал падать. Пока что ситуация - у меня есть нечто что стоит тысячу долларов но нет никого кто бы купил это за тысячу долларов. Курс биткоина 6500 но никто не купит его по этой цене. Рынка покупки нет. Тоже по ETH RM и прочему KC.
В итоге намайненные хеши лежат на дисках, иногда транзакцируются для скрытых покупок - выполняя роль хавалы. Но обьёмы транзакций падают. Как падает и обьём майнинга. Люди держат пока оборудование - потому что взяли на высокой - не отбили и думают как бы отбить . При этом лаг есть только у тех кто ворует электричество или сидит на солнце- ветре- выравнивании суточных колебаний ( проммайнинг ночью если имеет ночную скидку). Если его покупать просто по сетевым ценам то уж всё. Полный ноль с 11 числа. Не говоря ещё о неотбитом железе.
С 11 числа авито забит предложениями " ну совсем новых" карт пока по зверским ценам. Но это только начало.

С 20 до 6 это не крах ? А куча самоубийц "криптоевангелистов" говорит об обратном. И ещё раз нет покупки биткоина внешними, да стоить то он стоит - но для кого ? Это как облигация обанкротившегося банка, номинал лона стоит - но кто её по этому номиналу купит ? Это не акция которая уже ничего не стоит. Это облигация - но только вот гасить её нечем.

Нейросети то как раз вычислительные мощности ещё как любят. Именно прорыв в cell в своё время дал им начало ( проц из PS3) сейчас же за 10 лет они приобрели закономерное развитие. Алгоритмы нейросетей очень простые - они пишутся ну 400-500 человеко часов это уже полноценная нейросеть типа гугловской. Это очень мало. Обучение их требует огромного потока данных и итераций их обработки.
Например алгоритм нейросети которая используется в тойоте от Люксофта типа , на самом деле алгоритм использовавшийся в комплексе Гранит. Советская оборонка. Т.е. начало 80х. А вот обучение его это только где то десять лет назад стало доступно полноценно. До того тупо не хватало вычислительных мощностей и количества вводных.

Куда дальше ? это вопрос риторический потому что ещё раз - ты не понимаешь о чем говоришь. Ты это в предыдущем вопросе показал.

Но вот индустрия собственно чипов всё- приехали. Алгоритмы же это не алгоритмы - а чистота написания кода. Но уровень кодеров резко упал. В тоже время разрабатывается псевдо ИИ. Который позволит избавится и от QA и от Jun кодеров. Мартышки станут просто не нужны. Но тут можно долго говорить о типах компиляторов - не вижу в этом смысла. Скажу что будущее за самыми скоростными языками - ИИ для себя любит ASM C на худой конец C++ хотя ООП это плохо но это самый железный из ООП. Все остальные сдохнут даже Java. Будущее за процедурными языками. НО тут будет другой баланс занятости - просто кодеры станут не нужны - понадобятся ученые с навыками процедурного и графического программирования. ООП и тем более интерпретируемые языки не смотря на свою кросплатформеность нет куда оптимизировать. Начиная с 6 версии Java нет прироста скорости - есть перебалансировка проритетов и изменение синтаксиса для ускорения написания. Да и до того проблемы были только в неверном управлении памятью и мусоре. Т.е. нет ресурса что бы оптимизировать.
Собственно об этом я и писал.

[identity profile] http://users.livejournal.com/_sim_/ 2018-07-04 05:20 am (UTC)(link)
>>> Крах уже произошёл - уже сейчас биткоин , как впрочем и другие криптовалюты, стоят меньше стоимости майнинга

Спекулянты выводят деньги. Всё то же самое что и с крахом доткомов и тюльпанной лихорадкой 500 лет назад, спекулянты пришли, кто в теме урвали куш, остальные потеряли вложенное. Я кстати заработал на росте курса нормально так, но думал что крах будет при 200$ и на этом курсе вывел. Зато легально всё было, позже в России запретили юридическим лицам работать с биткоинами, выводить стало чуть сложнее.
Остатками оплачивал телефон, удивляло что платитишь 1$, комиссия 10$, и зачисление до суток. Биткоин бред какой-то, он не жизнеспособен и давно должен был умереть, но спекулянты вмешались. Есть другие коины, они более интересные и продуманные. Биткоин это первая версия все таки.

Нейросети ни разу не просты. Базовые понятия просты, а когда надо подбирать структуру нейросети, тут уже темный лес, нейросеть нужно заточить над решаемую задачу, универсального решения нет.
Вот пример эволюции чисто программной части, с Хабра:
... Впервые нейронные сети привлекли всеобщее внимание в 2012 году, когда Алекс Крижевски благодаря им выиграл конкурс ImageNet (грубо говоря, это ежегодная олимпиада по машинному зрению), снизив рекорд ошибок классификации с 26% до 15%, что тогда стало прорывом. ...

Был прорыв тогда, и сегодня каждый день идут улучшения в работе программ и нейросетей, на том же железе получаем на порядок лучшие результаты. Уровень кодеров конечно же вырос, так как предыдущее поколение не могло показать высокие результаты по распознанию.
ИИ любит Питон, там работа с матрицами написана на низкоуровневом языке, работает быстро, работа со структурой нейросети на языке высокого уровня. Питон стандарт для нейросетей.

[identity profile] techwork.livejournal.com 2018-07-04 07:16 am (UTC)(link)
Как они выводят если никто не покупает ? Кто сейчас покупает криптовалюты ? Ну ? и Какие обьёмы ?

И чем же эти "продуманные" отличаются ? Названием ?

Меньше читай хабр - там много херни. Нейросети имеют очень долгую историю. И в 2012 это уже не было новинкой. Системы визуального распознавания бум начался в 2006 году. Системы обработки BigData тогда же. Аналогично и проект ИИ от Гугла был запущен тогда же. Первые попытки графического программирования вообще 2003 год. На форексе трендовый анализ в 2007 тоже стали использовать некоторые. Для этого были нужны такие технологии как cell CUDA FireStream множественный паралелизм. Раньше конечно были VLIW но были не развиты технологии кремния. Они не давали нужного результата, плюс системы хранения данных именно тогда случился прорыв в развитии жёстких дисков и был преодолён предел в 80 гигов. Стали использовать многомодную структуру магнитной записи. Что привело к тому что жёсткие стали хрупкими.

Когда тогда прорыв и что есть прорыв - конкретно можешь сказать ? Я могу но зачем мне тратить время? убеди.

Ты ничего не знаешь о оптимизаци алгоритмов и компиляторов. Питон это язык вообще интерпретируемый - т.е. априорно параша в разы медленнее компилируемого. Он с динамической системой типов что требует арбитра - затраты. Он ООП - что тоже очень плохо так как тоже затраты, и вообще динамический.
Если говорить примитивно и оценивать уровнем 0 прямой ввод битов 1 ASM то по 10 бальной шкале где 10 графическое програмирование и преобразование из текстового описания отдалённости от железа он 7. Есть очень мало языков которые хуже. Естественно чем дальше от железа тем больше накладные расходы.
В нём нет никаких математических ускорителей как в Haskell который тоже более узкоспециализирован для матричных вычислений и который тоже дальше от железа чем C++ но всё же быстрее Java для некоторых вычислений.
В идеале любой ИИ должен писаться на ASM но это адова затрата человекочасов. Поэтому С который 2 уровень. С++ это 4 уровень, Haskell 5
Всё те ИИ что сейчас наиболее развиты написаны на языках не выше 5 уровня.
ООП это плохо но С++ на столько отточен, и на столько оптимизированы компиляторы что на данный момент он самый дешёвый способ написать нейросеть. Но все равно растёт спрос на C. Потому что он процедурный и статический что даже в теории всегда ближе к железу, и компилятор будет самый эффективный.
Да там на реализацию при написании тратится в десять раз больше кода чем для Java в 25 раз больше чм для Pyton требует большего внимания - но зато скорость работы будет выше.
Java популярна не просто так - она соблюдает баланс между человекочасами на реализацию и скоростью работы. Pyton ещё в два раза сокращает время разработки - но формирует худший байткод (избыточный и с мусором) и машина питоновская хуже джававской и по реализации но и по алгоритмическому пределу - короткие команды с кучей возможных свойств это по сути тоже самое что библиотеки в винде. Упрощают написание - но радикально снижают производительность. В среднем в три раза а по отдельным задачам до 20 раз. Джава и так не быстра а питон ... в итоге популярен он больше в РФ где всё госструктура и важны сроки а не скорость. Например в клиент банковском софте, Сайтах где можно было бы обойтись в десять раз боле слабым железом - но оно дёшево - заказчик заплатит.

[identity profile] soeharto.livejournal.com 2018-07-30 05:43 pm (UTC)(link)
А какой из трех i7 первого поколения как будто актуален? Bloomfield, Lynnfield или вообще Gulftown?

[identity profile] soeharto.livejournal.com 2018-07-31 07:03 am (UTC)(link)
Ну хз. По мне дык он уже устарел. Вот Sandy Bridge да, прорыв и долгожитель. Он процентов на 30 быстрее.

[identity profile] soeharto.livejournal.com 2018-07-31 08:20 am (UTC)(link)
Сейчас возникла проблема, что через 12 лет появления первых 4-х ядерных процессоров и 8 лет после первых 6-ти ядерников, игрушки наконец то научились (но не все) работать с количеством ядер больше 4, с реальным приростом. В играх разница как раз стала появляться. Лет через 10 может и 12 ядер освоят.

Page 1 of 3