techwork: (Default)
techwork ([personal profile] techwork) wrote2015-05-30 10:02 pm
Entry tags:

Земля Будущего

посмотрел Земля Будущего , не ошибся, фильм вышел хороший. Смесь Электроника, серии Кира Булычёва про Алису, и Терминатора. В общем фильм вышел хороший в отличии от очередного безумного макса.
Будущее по американски - со всеми их бзиками делающее его несовершенным. Недоделанным - как и любое капиталистическое технологическое развитие.
Антураж слямзен с представления 90х о будущем. Такой лёгкий ретрофутуризм.

теперь подождём терминатора. он думаю будет лучше чем терминатор 3 и да придёт спаситель. Это этакий возврат в 80е. Назад в Будущее плюс терминатор 2.

Да как раз в 2015 год летали из 85 в фильме Назад в Будущее 2. Только вот Союз рухнул и Японию американцы нагнули. Если бы не так то мы бы видели бы уже то самое будущее. НО... почему союз ? потому что именно военные штучки двигали технологии, особенно то что касаемо ховерборда например. Или летающих авто. Не думаю что это было бы не возможно сейчас. НО это теперь будет ещё не скоро.

Да и , никто не заметил что мы подошли к кремневому пределу ? Нет на самом деле FET транзисторы появились на десять лет раньше и их просто задержали из-за маркетинговых целей. Но наконец то. Сподобились
Технологи finFET предполагает собой стабильную работу при размерезатвора не менее 15 диаметров атома кремния атом кремния 264 пикометра итого 264*15= 4 нм. И это при очень хорошем стечении обстоятельств и сомневаюсь в их надёжности. но думаю 7 нм станет пределом. а может быть и 10. К чему я к тому что 14 уже выпускают эти бесконечные итерации подходят к концу. Что потом ? 16 ядер, но что потом ? .... так что всё . а когда то компьютеры были большие.

[identity profile] jeank.livejournal.com 2015-05-30 07:27 pm (UTC)(link)
Потом пойдет упор на распараллеливание. Впрочем, уже идет вовсю, но прихрамывает в части задач.

[identity profile] techwork.livejournal.com 2015-05-30 07:31 pm (UTC)(link)
описал уже 16 ядер. больше толку не будет нет такого логического алгоритма чтобы это смог сделать. с тем парком ПО что написано на x86 x64 архитектуре
придётся полностью сменитть архитектуру процессоров и бороться за то чтобы они использовали как можно меньше элементов. Что сейчас происходит с ускорителми от nVidia и AMD.
Да и ПО придётсяя наконец то оптимизировать, а не тащить кучу библиотек и не нужных кусков конструктора.
Edited 2015-05-30 19:52 (UTC)

[identity profile] jeank.livejournal.com 2015-05-30 08:56 pm (UTC)(link)
С изменением архитектуры есть определенные сложности, поскольку в общем то неизвестно, сколько в типовых задачах будущего понадобится потоков с данными, зависящими от предыдущих расчетов, т.е. нераспараллеливаемых.

Нынешняя архитектура выглядит достойным компромиссом, несколько фиксированных АЛУ и масштабируемые мощности видеоускорителя выполняют те участки задач, для которых архитектурно лучше приспособлены. У одного задачи разделяются прерыванием, у другого несвязанностью. Если совместить, не удастся оптимально разделить ресурсы, часть архитектуры будет простаивать впустую.
Edited 2015-05-30 21:02 (UTC)

[identity profile] techwork.livejournal.com 2015-05-30 10:05 pm (UTC)(link)
А вот ответ на это кроется в физических параметрах микропроцессоров и их TDP с современной архитектурой. Например с тем что есть 16 ядер и 10 гигагерц вполне. Но не более того. А частота на ядро нужна. для того чтобы быстрее работали приложения на одно два четыре, а их много. Кроме того есть технологический придел например для 28 нм это 581 мм2 7,1 млрд транзисторов. при этом частота 1300. Хотите выше частоту - снижайте площадь кристала. 356 мм² и число транзисторов 2,6 млрд уже и 6 можно раскачегарить. Но понятно что этот тех процесс горячий, а на 10 10 ггц вполне.
Если же менять архитектуру то и там есть ограничения..... короче долго объяснять но со сменой архитектуры понизив частоту до 5 ГГц можно будет получить Кристалл прощадью 500 мм с 5 миллиардами транзисторов , И следовательно 256 потоков. Иное может произойти только при полной смене технологий и отказе от кремния, но пока такого не наблюдается. А при текущей архитектуре - 16.

[identity profile] jeank.livejournal.com 2015-05-31 07:10 am (UTC)(link)
Да, с транзисторной двоичной логикой технология, похоже, уже вышла на предел физических возможностей, закон Мерфи обрушился уже лет 5 назад, а последние 2-3 поколения процессоров несут лишь косметические изменения.
А разговоры про перспективные системы со множественным состоянием базовой операционной ячейки, что как раз и способно дать необходимую гибкость, пока остаются туманными обещаниями.
Edited 2015-05-31 10:04 (UTC)

[identity profile] dobr-i-trezv.livejournal.com 2015-05-31 11:03 am (UTC)(link)
jvm перепишут да и все. Да на clojure будет писать еще легче.

[identity profile] techwork.livejournal.com 2015-05-31 11:55 am (UTC)(link)
фанатик - а это ничего что бесконечное распаралеливание процессов не возможно, и для этого jvm переписать не поможет. А касаемо clojure - религия вещь тонкая.

[identity profile] dobr-i-trezv.livejournal.com 2015-05-31 12:33 pm (UTC)(link)
а оно нужно "бесконечное распараллеливане"? Помню был у приятеля в гостях. В дверь позвонил продавец посуды какой-то фирмы. Начал свою презентацию в дверях с фразы: "Разрешите представить вашему вниманию вечную сковородку". Приятель печально так ответил: "Мне не нужна вечная посуда, я не собираюсь жить вечно".

Вообще, распараллеливание сейчас обходится даже без задействования на полную катушку представления чисел в системе остаточных классов. Так что не созрели мозги у людей еще до нормального пользования чудесами природы. А уж тем более религии :))))))))

[identity profile] jeank.livejournal.com 2015-05-31 05:22 pm (UTC)(link)
Для моделирования сложных процессов, которые разбиваются на множество простейших, или перебора данных для одинакового алгоритма совсем не помешало бы.

[identity profile] dobr-i-trezv.livejournal.com 2015-05-31 06:46 pm (UTC)(link)
я в курсе, что считают на кластерах. Вы всерьез думаете, что узкое место в вычислительных мощностях?

[identity profile] techwork.livejournal.com 2015-05-31 07:42 pm (UTC)(link)
нет не нужно - но оно и невозможно. Кроме того есть текущий парк наследуемого ПО и текущая типология задач. Поэтому
1. простым переписыванием не обойтись.
2. каждое удвоение распаралеливание приносит падение прироста вычисений в три-четыре раза.
Следовательно без смены архитектуры 86-64 на нечто более совершенное что ещё не разработано предел - 16 ядер. дальше удвоение ядер приведёт к падению производительности для абсолютно большинства задач. Потому что удвоение потребует снизить частоту на столько что оно будет не способно компенсировать потерю от падения частоты. Либо адской системы охлаждения. И я о предельных технологиях 14-4 нм.
Но смена архитектуры- в помойку всё унаследованное ПО. Не многое даже перекомпилировать удасться.
А никакой другой реально работающей технологии даже в прототипах нет. Спиновые процессоры это более теория. Да был такой в начале 2000, но ..... чтобы работать на частотах сопоставимых с кремнием их далеко. И даже если они появятся речь пойдёт о распаралеливании с меньшими накладыми и только, ещё очень долго придётс добиваться такой же как на кремнии производительности ядра.
так что у нас очень интересная эпоха - когда копьютеры остановят рост производительности и многоё придётся решать прграммистам.

[identity profile] dobr-i-trezv.livejournal.com 2015-05-31 07:50 pm (UTC)(link)
>> и многоё придётся решать прграммистам. <<
Скорее математикам. А с программистами произойдет, я думаю, такая же история как с водителями. Профессия программист перестанет быть самостоятельной и станет незаметной составной частью профессии инженеров.

[identity profile] jeank.livejournal.com 2015-05-31 07:54 pm (UTC)(link)
Иное невозможно.
Любое бутылочное горлышко приводит к нехватке вычислительной мощности. Даже если оно не техническое, а упирается, например, в вопрос достоверности полученных данных.

[identity profile] techwork.livejournal.com 2015-05-31 08:45 pm (UTC)(link)
не станет - специализация она и сейчас есть а инженер например строитель программистом не станет.
И скорее не математикам - проблема не в теориях информации, проблема в оптимизации кода. Почему одни и теже по контенту игра занимают от 1,5 до 8,6 гигов ? Почему одна и таже программа будучи написана разными программистами на одном и том же языке имеет различные скорости исполнения. Почему одна и таже программа написанная на разных языках в разных средах имеет абсолютно разные показатели скорости и загрузки процессорных ресурсов ? Раньше в технологические демо в 48 килобайт умещалось столько же что будучи выполненной по совремменным технологиям например c# плюс Unity оно займёт 20 мегабайт.
Потому что программисты разучились программировать - одни паттерны, и куча заимствованных фреймворков. Так дальше продолжаться не может
.
Ваш текущий компьютер в сто раз быстрее пенька 233мх Но разве от этого ваша работа с ним стала в сто раз быстрее ? Разве вы в сто раз быстрее работаете в офисных пакетах ? в информационных системах ? в интернете ?
нет.
Да были новые технологические введения - однако office 2013 не так уж далеко от offiice xp по своим возможностям . так почему же он тормозит на трех гигагерцах и двух ядрах когда xp хватало 233мх для такой же по скорости работы.
И что такого в windows что её дистрибутив занимает 20 гигов после развёртывания

[identity profile] dobr-i-trezv.livejournal.com 2015-05-31 08:53 pm (UTC)(link)
>>не станет - специализация она и сейчас есть а инженер например строитель программистом не станет. <<
в том то и дело, что clojure первый звоночек. Сначала в одной-двух специализациях произойдут серьезные изменения в языке программирования, и программирование перестанет быть вообще хоть каким-либо препядствием. Посмотрите на среду R. На то как лихо она пережевывает своих конкурентов.

Низкоуровневые спецы конечно не исчезнут. Но со статистической точки зрения, поле программерских специальностей уменьшится. И наверно по цифрам востребованности на рынке труда мы будем похожи на цифры 70-80-х годов.

[identity profile] techwork.livejournal.com 2015-05-31 09:41 pm (UTC)(link)
с религиозным фанатиком спорить бесполезно однако - вы говорите чушь потому что не будет инженер строитель или инженер- электрик или инженер-метростроевец осваивать довольно медленный высокоуровневый язык программирования , у него просто никогда не будет на это время. В тоже время на текущий момент более быстрых результатов чем С++ ничто не даёт. Потом идут Java и C# халява с процессорными ресурсами подходит к концу но вы предлагаете учить медленный язык программироания тем у кого и так задач выше крыше. Это всеравно что предожить гонщику формулы 1 быть ещё и механником.

http://www.innoros.ru/news/15/03/optovolokno-kak-osnova-dlya-superkompyuterov

[identity profile] lexpartizan.livejournal.com 2015-05-31 10:21 pm (UTC)(link)
Новая же технология предлагает использовать особый оптический синапс, который максимально похож на настоящий, несмотря на то, что последний использует химические и электрические сигналы. Схожесть искусственных синапсов с биологическими делает возможным воссоздание того процесса, что происходит в человеческом мозгу: компьютер сможет обучаться, распознавать ассоциации и т.п. Кроме того, это, по сути, убирает ограничение скорости передачи сигнала. Оптические нейроны будут работать на скорости, близкой к световой. Таким образом, в будущем вычислительные способности компьютеров с оптическими чипами могут существенно превзойти возможности человеческого мозга. При этом они будут компактнее и потреблять меньше энергии. Существует даже мнение, что эта технология потенциально более совершенна, чем технология квантовых компьютеров.

https://hi-tech.mail.ru/news/ultracompact-beamsplitter.html

[identity profile] lexpartizan.livejournal.com 2015-05-31 10:26 pm (UTC)(link)
Инженеры из Университета Юты объявили о прорыве в компьютерах, который потенциально направлен на создание невероятных суперкомпьютеров, способных обрабатывать данные в тысячи раз быстрее, чем это происходит сегодня. Невероятный прирост достигается за счет использования «сверхкомпактного светоделителя» (ultracompact beamsplitter), который передает информацию при помощи фотонов.

Традиционные компьютеры обрабатывают данные с использованием электронов, которые проходят по проводным соединениям. Однако, как известно, свет может передать больше информации, чем провод, к тому же требуется меньше энергии, чтобы пропускать фотоны, чем электроны. На этом принципе и сконцентрировались ученые, организовав световые лучи вместо проводов, которые, к тому же, в 50 раз тоньше человеческого волоса. Сам светоделитель получился настолько компактным, что их можно разместить на одном компьютерном чипе в миллионом количестве.

Re: http://www.innoros.ru/news/15/03/optovolokno-kak-osnova-dlya-superkompyuterov

[identity profile] techwork.livejournal.com 2015-05-31 11:06 pm (UTC)(link)
очередной нанопланшет им. Чубайса. Это технобабл.

Re: https://hi-tech.mail.ru/news/ultracompact-beamsplitter.html

[identity profile] techwork.livejournal.com 2015-05-31 11:07 pm (UTC)(link)
ага этот прорыв зовётся оптическое волокно - в подьезде каждого большого дома в городе давно уже.

[identity profile] dobr-i-trezv.livejournal.com 2015-06-01 03:24 am (UTC)(link)
Солидворковские модели не особо то переписываются перед тем как в кластера загнать. С++ давно уже более быстрые результаты в массе своей не дает по сравнению с Java. Потому что подавляющее количество программистов не могут эффективно управлять памятью. А те кто может JVM пишут. Или с ассемблером возятся. Сколько у вас гонщиков формулы один и сколько у вас водителей? Вдумайтесь в вашу же аналогию.

Re: https://hi-tech.mail.ru/news/ultracompact-beamsplitter.html

[identity profile] lexpartizan.livejournal.com 2015-06-01 08:42 am (UTC)(link)
Но в чипах до сих пор не применялся. И синапсы из него не строили.
Или Вы хотели, чтобы чипы на оптоволокне появились раньше самого оптоволокна?

Re: http://www.innoros.ru/news/15/03/optovolokno-kak-osnova-dlya-superkompyuterov

[identity profile] lexpartizan.livejournal.com 2015-06-01 08:54 am (UTC)(link)
Когда выжмут из кремния всё, перейдут на оптоволокно.
Заметьте, что пока даже внутренние шины не на оптоволокне. А могли бы быть давно))

Кроме того, некоторые увеличение производительности даст Visc-архитектура. А потом, несомненно, что-нибудь ещё придумают.

[identity profile] unnamed83.livejournal.com 2015-06-01 08:58 am (UTC)(link)
уже есть 80+ ядер, небольшими тиражами, но пока находит применение только в серверных технологиях. основные тормоза сейчас за программистами и отсутствием среды для распоралеливания процессов. оно потятно что основные потоковые алгоритмы давно распоралелены, но нет самой концепции массовых паралельных вычеслений. в этуже проблему когдато уперлись Советские програмисты в 70х когда ЭЛЕКТРОНИКА могла быть скольугодно ядерной, но соответствующий софт ложился на такое железо только в узком кругу специальных вычслений. так что единственный прорыв которого стоит ждать это прорыв в програмировании. гдето там в области нейронных сетей и искуственного интеллекта. мозги они и больше в нанометрах но работают на распаралеливании процессов.

[identity profile] techwork.livejournal.com 2015-06-01 11:43 am (UTC)(link)
есть 1588 ядер - только вот это совсем другие ядра - да и что за говно ты мне спамишь ?

Page 1 of 4