Category: компьютеры

Category was added automatically. Read all entries about "компьютеры".

Пределы производительности

Оригинал взят у lexpartizan в Пределы производительности


В последнее время сильно разочаровывает производительность вычислительной техники. Если смартфоны реально радуют ростом производительности и уже не так далеко по параметрам от ноутбуков, то компьютеры как-то не аллё. Наверху Вы можете видеть тренды последних 40 лет. Мы видим как линейно, подчиняясь закону Мура, растёт количество транзисторов. Мы видим, как с 2005 практически перестала расти тактовая частота. Одновременно с этим прервался и стал более пологим рост однопоточной производительности. И правда, мы можем наблюдать, как ставшие популярными благодаря китайцам древние списанные ксеоны (даже копеечный X3440, не говоря уже о 6-ядерном монстре с разблокированным множителем e1650, который способен разогнаться до 4,8 ГГц) вполне себе "тащат" и "раскрывают" любые игры на любых видеокартах. Не сильно отставая в реальных приложениях от текущих флагманов. Тока жрут побольше, да. Ну и видим попытку удержать энергопотребление в разумных пределах около 100 ватт и рост количества ядер, иначе чем ещё можно удваивать-то транзисторы. Как видим, рост застопорился. Давайте посмотрим, до каких пределов он вообще возможен в принципе. Чтобы не было потом мучительно смешно читать фантастику о компьютерах в миллионы ГГц. В помощь научному фантасту, так сказать)) Мы за твёрдую научную фантастику!
[Spoiler (click to open)]

Теоретический потолок частоты.
Скорость света = 299 792 458 м\с, пусть будет 300 000 000 м\с для упрощения.
Допустим, у нас есть процессор, работающий на частоте 3 ГГц= 3 000 000 000 Гц. Не так уж много, правда? Какой теоретический максимальный размер чипа может быть? За время одного такта электрический сигнал (распространяющийся со скоростью света) может пробежать... Разделим скорость света на частоту... Итого 0.1 м. 10 см. Но на практике чип - довольно хитрое устройство. И сигналы там идут не по прямой. Так что это отнюдь не означает, радиус в 10 см. А значительно меньше.
Тут надо чуть отвлечься и упомянуть, что это размер функционального блока, то есть ядра процессора, а не самого процессора в целом. Ибо сами процессоры между собой общаются не в пределах одного такта. Ядра практически представляют собой разные компы, объединённые сетью. Но в пределах ядра всё должно укладываться в 1 такт.
А теперь прикинем, что у нас алмазные процессоры. С частотами под ТераГерц. Ладно, пусть 300 ГГц. Иначе зачем переходить на алмазы? Это означает, что 10 см для 3 ГГЦ надо поделить на 100, чтобы получить расстояние для 300 ГГЦ. А это один мм, Карл! Один грёбанный мм всего! И то чисто теоретический! А у нас ядро Скайлейка имеет площадь 49 кв мм. А это квадрат со стороной 7мм. А значит, даже с алмазами это ядро не разогнать выше 43 ГГЦ! Что не так уж уже и впечатляет. И это чисто теоретически, так что поделите реально достижимые скорости надвое\натрое. А если на порядок, то это мы и сейчас имеем)) Ибо законы физики. Правда, какой-нибудь кортекс А-53 умещается в 6 кв мм, то есть имеет сторону менее 3 мм. Но это всего-то в два раза частоту задрать можно.
В общем, мечты о террагерцевых компьютерах можно откинуть, как ненаучную фантастику.
Тут есть только две вещи, способные повысить удельную производительность ядра:

1. Процессор, как зд-структура. Многослойный пирог. То есть, не квадрат 49 кв мм, а куб 49 куб мм. То есть у нашего ядра сторона 7 мм. Либо теперь это будет более сложный процессор, для которого есть 343 кв мм общей площади. Могут возразить, что слои значительно тоньше одного мм, но ведь нам нужна максимальная длина проводника, так что это значение что в 2д, что в 3д не изменится, сколько слоёв не делай. Или можно уменьшить площадь кристалла приблизительно тоже в 7 раз за счёт трёхмерности. И увеличить тактовую частоту с 43 ГГц до 300, например. Что уже интересней. Многослойность ведёт к инженерной проблеме перегрева, ибо греющихся транзисторов в разы больше, а площадь для охлаждения таже. Но алмазные процессоры должны разрулить проблему отвода тепла.

2. Дальнейшее уменьшение техпроцесса позволит на той же площади\объёме либо выстраивать более сложные структуры, либо уменьшить площадь\объём и поднять частоты.
Предидущие рассчёты показывали пределы для текущего ядра скайлейк (или райзен, он чуть меньше) по текущему техпроцессу.

Предел миниатирюзации.
Фотолитография давно исчерпала свои возможности (60 нм) из-за размеров длины волны. Ухищрения с двойным-тройным экспонированием и тд позволили добиться лучших результатов. Ультрафиолет с длиной волны 13,5 нм позволил продвинуться дальше. Это литография в глубоком ультрафиолете.
Рентгеновское излучение для X-ray литографии имеет длину волны 0,5-5 нм и позволит добиться большего. Но пока что, в отличии от ультрафиолета, это не на слуху.
Кроме того, есть нанопечатная литография, при которой формируются прессформы с наноструктурой.
Это были технологии массового производства процессоров. Однако, эти технологии требуют создания дорогущих фотошаблонов (или нанопрессформы) и подходят только для

Кроме того, есть технологии единичного производства. Например, учёные делают это с помощью электронного микроскопа, где структуры в 1 нм - далеко не предел. Электронная литография позволяет, на нынешнем уровне развития технологии, получать структуры с разрешением менее 1 нм, благодаря более короткой Де-Бройлевской длине волны электронов по сравнению со светом. Этим способом и производят нанопрессформы и фотошаблоны. Одна проблема - скорость производства. Для типичных хороших электрон-резистов — экспозиция получается порядка 30 микрокулон на квадратный сантиметр. Это значит, что один луч с током 10nA (10 нанокулон в секунду) засветит 300мм пластину площадью 706 см2 за 706*30/(10*0.001) = 24 дня. 24 дня одна вафля, Карл! А нормальное производство - сто вафель в час! А не 10 в год! Впрочем, выход есть, Mapper litograpy предлагает устанавливать специальные насадки для параллельности процесса и обещают скорость до 10 вафель в час(рекомендую почитать по ссылке подробней, технология очень интересная и перспективная). Но уже на 22 нм, а не на 1. Впрочем, коммерческие системы - это около 5 нм. Кроме того, данная технология не требует изготовления дорогостоящих шаблонов и масок и размер серии абсолютно не важен, что неимоверно круто.
Кроме того, существует ионно-лучевая литография, где вместо электронов по тому же принципу используются ионы. Она куда быстрей производит засветку резиста, кроме того, угловое рассеяние там меньше. Особенностью такого подхода является то, что с помощью ионного луча, наряду с экспонированием, можно выполнять технологические операция: очистку поверхности, травление, нанесение пленок; а также совмещать в одном технологическом оборудовании все эти операции с другими сухими процессами, например с проявлением. Кроме того в некоторых случаях этот подход позволяет отказаться от полимерного резиста. Ионные пучки имеют длину волны 10-200 нм. А значит, предел техпроцесса - 10 нм. Зато перспективная технологичность процесса. Кстати, с фотошаблонами ионно-лучевая литография тоже работать может, так что это весьма перспективный вариант.

Сейчас минимальный размер транзистора около 14 нм. Теоретическим пределом из-за туннельного эффекта считалось 5 нм. Дальше включаются квантовые эффекты и электрон может просто перескакивать через преграду. Однако учёным удалось создать транзистор размером с 1 нм с помощью нанотрубок.

Интел считает, что пределы для улучшения техпроцесса будут достигнуты лет через 5. Пока что достигнут техпроцесс 10 нм (первый процессор на нём - мобильный снапдрагон 835), в планах 7 нм. Думаю, интел рассчитывает одолеть и 5 нм.
Но дальше в будущее уже никто не смотрит.

Да и куда особо смотреть-то?
Диаметр атома кремния около 0,25 нм.
Диаметр атома углерода (алмазный процессор) около 0,15 нм.
Эти величины уже не так чтобы и далеко... Мы же не сможем сделать транзистор МЕНЬШЕ атома, правда?

Пределы параллельности.
Если уж мы упёрлись в потолок из скорости света и размера атомов, и нам нельзя больше наращивать производительность отдельного функционального блока-ядра, может нарастить количество ядер? Ну что ж, посмотрим, насколько это поможет. А оценить это поможет закон Амдала.

«В случае, когда задача разделяется на несколько частей, суммарное время её выполнения на параллельной системе не может быть меньше времени выполнения самого длинного фрагмента». Согласно этому закону, ускорение выполнения программы за счёт распараллеливания её инструкций на множестве вычислителей ограничено временем, необходимым для выполнения её последовательных инструкций.

Часть кода почти всегда будет последовательной. А это задаёт общую планку производительности. Пока она не выполнится - программа не будет выполнена. Если параллельная программа содержит 1% последовательного кода, то максимальное ускорение на 10 процессорах будет равно 9, а на 1024 процессорах — только 91. Как-то хило так. Тыща ядер, а ускорение на порядок меньшее... При этом 1% ставит чёткий потолок, что программу можно ускорить максимум в сто раз. Хоть тысяча тысяч ядер. Хоть десять тысяч. Последовательная часть всё равно будет выполняться на одном ядре и пока она не выполнится - программа не завершится. Все ядра будут ждать последовательную часть. А если 5% последовательного кода? То ускорение возможно всего в 20 раз. 10%? В 10 раз. При туче ядер.

Иметь много ядер - явно неадекватно выхлопу. И если для дата-центра, нагруженного разными задачами, которые он может выполнять одновременно, это ещё куда не шло, то для компьютера, который занимается одной задачей(как бы она не была распараллелена) множество ядер уже явный избыток.
И какой-нибудь 32х-ядерный оптерон уже не кажется слишком уж днищем для будущего. Ну ладно, 64 тоже покатит. Ну больше 128 точно смысла нет. Ибо 128 увеличат 5% код в 17 раз, а 1024 ядра в 20. При этом транзисторный бюджет в 10 раз больше. Для прироста скорости в 10% это как-то совсем не катит.
Тут нужно отметить прекрасную распараллеливаемость графических задач. В средней видюшке gtx1060 1152 потоковых процессора. А в gtx1080ti 3584 и между ними, чёрт побери, есть заметная разница в производительности. То есть распараллеливаемость рендеринга в играх просто феноменальная. Что, кстати, и позволяет развиваться видеокартам, в отличии от процессоров. Можно просто наращивать мясо.
А для роста производительности у нас остаются только архитектурные ухищрения, вроде всяких заточенных на определённые алгоритмы dsp-процессоров и прочих специализированных заточек, что будет усложнять ядро, но даст и прирост. Например, ядро может иметь в составе блок для квантовых вычислений, ускоряющий некоторые алгоритмы, спинтроника и тд - туда же. Но частотный потолок останется. И оптимизация программного обеспечения. Где поля непаханные. И, конечно, на подложку можно будет встроить и память (думаю, в будущем не будет разницы между оперативной и долговременной) и чипсет и прочие ништяки. Тенденция к интегрированию всего и вся уже наметилась.
Итак, не ошибусь, если через сто лет мы будем иметь алмазный компьютер SOC который может быть использован как карманный коммуникатор-смартфон, так и рабочая станция\сервер, если включить его в розетку и дать ему электрическую мощу)) Выполнен он будет по технологии 5 нм (в идеале из нанотрубок 1 нм, врядли получиться 0,5), достигать частоты в 50 ГГц. Если сложность и длина конвейера ядра останется на уровне скайлейка, а техпроцесс снизится раза в 3 (5 нм) + 3д-структура, которая уменьшит длину "проводников" раз в 7(как я говорил раньше), то возможны и 500 ГГц). И будет иметь максимум 128 ядер общего назначения.
Впрочем, я уверен, что инженеры доведут гетерогенные вычисления до ума, а недоядра ГПУ станут более универсальными(и заодно быть "нейронами"), и параллельные вычисления будут выполнятся на упрощённых ГПУ-ядрах (которые могут, кстати, работать на более высоких частотах, так как они меньше). И всем хватит 32 ядра. Просто потому что больше ядер не будут давать роста производительности. Как в суперкомпьютерах, так и в смартфонах. Впрочем, особых суперкомпьютеров не будет. Ибо не возможно сделать комп мощнее. Только распараллеливать алгоритмы дальше, чтобы можно было поставить несколько таких компов)) Впрочем, обычно задачи для суперкомпьютеров прекрасно параллелятся. Ибо в основном это моделирование частиц.
И эти параметры будут актуальными как через сто лет, так и через тысячу. А о тысячах ГГц и тысячах ядер забудьте. Тысячи ГГц невозможны, в тысячах ядер нет смысла(прирост неадекватен затратам).
Ибо, к сожалению, потолок.


Россиян хотят обязать указывать всех возможных пользователей их ПК и гаджетов

Оригинал взят у oleg_leusenko в Россиян хотят обязать указывать всех возможных пользователей их ПК и гаджетов
Северная Корея - как образец для россиян:



Министерство связи и массовых коммуникаций РФ (Минкомсвязь) подготовило проект изменений в правила оказания услуг телефонной связи, телематических услуг связи, а также услуг связи по передаче данных для исполнения так называемого «пакета Яровой».

Как сообщает RNS, ссылаясь на текст документа, Минкомсвязь предлагает обязать абонентов услуг связи вписывать в договоры с операторами всех возможных пользователей их компьютерных и мобильных устройств. Речь идёт о смартфонах, телефонах, планшетах, персональных компьютерах с доступом в Интернет, роутерах и пр.
Collapse )

Кинетические Фасады

Оригинал взят у maksym_tt в Кинетические Фасады
Оригинал взят у evan_gcrm в Кинетические Фасады


Collapse )

У архитекторов и инженеров есть старая мечта – создать привлекательную в художественном отношении оболочку здания, которая могла бы приспосабливаться к изменениям параметров наружного климата в течение дня, сезона и года.
Ограждающие конструкции должны регулировать поступление в помещение теплоты, света, воздуха либо потери теплоты так, чтобы внутри здания обеспечивались оптимальные параметры микроклимата при умеренных за-тратах энергии. Это могло бы существенным образом способствовать снижению потребления энергии в здании и повышению качества внутренней среды.

Одним из интереснейших решений оболочки здания, приспосабливающейся к изменениям наружного климата, является конструкция - Динамического Фасада.

Collapse )

Как красть информацию при помощи звука вентиляторов системного блока

Оригинал взят у masterok в Как красть информацию при помощи звука вентиляторов системного блока


На страницах нашего сайта мы уже не один раз знакомили наших читателей с результатами деятельности специалистов Исследовательского центра кибербезопасности (Cyber Security Research Center) университета Бен-Гуриона (Ben-Gurion University), Израиль. Этими специалистами уже были разработаны три вида атак, позволяющих извлечь данные из компьютеров, защищенных так называемым "воздушным барьером". В этих атаках использовались излучаемые компьютером электромагнитные волны, радиоволны GSM-диапазона. А недавно эта же самая группа, возглавляемая Мордекаи Гурии (Mordechai Guri), нашла еще один способ красть информацию, на этот раз при помощи звука вентиляторов, которые служат для охлаждения процессора и системного блока компьютера.

Компьютеры, защищенные "воздушным барьером", представляют собой обособленные компьютеры или сети, которые не подключены к Интернету напрямую или не подключены к другим компьютерам или сетям, имеющим подключение к Интернету. Такие компьютеры считаются максимально защищенными от удаленного взлома, они используются для хранения и обработки секретной и критичной информации. В некоторых, особо важных случаях из таких компьютеров удаляются даже встроенные динамики и микрофоны для предотвращения кражи информации при помощи акустических волн.
Collapse )


Оптический компьютер от Optalysys

Оригинал взят у vladimir690 в Оптический компьютер от Optalysys

Британский стартап Optalysys, специализирующийся на разработке различных технологических решений, использующих метод оптической корреляции, планирует уже в начале следующего года продемонстрировать прототип передового оптического компьютера, в котором вычисления будут производиться со скоростью света. Если все пойдет по плану, то разработанная инженерами Optalysys технология в ближайшие 6 лет приведет к появлению на рабочих столах обычных пользователей оптических суперкомпьютеров производительностью несколько экзафлопс (квадриллионы операций с плавающей запятой в секунду).

Collapse )

Новый инструмент Adobe имитирует голос человека после 20 минут обучения

Оригинал взят у matveychev_oleg в Новый инструмент Adobe имитирует голос человека после 20 минут обучения
stalin_3

На кoнференции Adobe Max Creativity, где состоялась презентация будущего аудиоредактора VoCo и его возможностей, разработчики сразу были вынуждены оговориться и сообщить, что они, разумеется, понимают, что функциoнальностью VoCo попытаются злоупотребить, и они работают над этой проблемой.

Суть «пpоблемы» проста — VoCo достаточно 20 минут слушать голос любого человека (а если бoльше, то и вовсе отлично), после чего он способен произнести данным голосом вcе что угодно. Если говорить упрощенно, VoCo разбивает речь на отдельные фонемы, из которых затем спoсобен составить что угодно.

Это как раз тот случай, когда лучше один раз услышать, поэтому внимание на видеоролик ниже. На презeнтации, которую вел комик, актер и режиссер Джордан Пил (Jordan Peele) показали пpостую и эффектную демонстрацию. Инженер Adobe Цзэ-ю Цзинь (Zeyu Jin) прямо на сцене обработал интервью с нaпарником Пила по выступлениям, комиком и актером Кигэном-Майклом Ки (Keegan-Michael Key). Цзинь изменил запиcь, просто набрав на клавиатуре фразу, и заставил Ки «сказать», что тот поцеловал Пила вместо своей жены.

Collapse )


WaveNet: синтезированная компьютером речь, похожая на человеческую

Оригинал взят у 5cek в WaveNet: синтезированная компьютером речь, похожая на человеческую


DeepMind — это автономное подразделение Google, которое занимается разработками в области искусственного интеллекта. Эта компания разработала AlphaGo — систему, обыгравшую в го чемпиона мира по го Ли Седоля.

Но удел DeepMind — не только игры. Сейчас сотрудники компании занимаются разработкой компьютерной системы синтезирования речи. Как и во всех прочих проектах DeepMind, здесь замешана слабая форма искусственная интеллекта. Она, по мнению специалистов, может кардинально улучшить ситуацию с синтезированной речью.
Collapse )


Демократия. Критерий ответственности(истины).

Я уже тыщщу раз писал.
Не надо делить на дебилов и умников.
Надо делить на желающих ПРИЛОЖИТЬ УСИЛИЯ и не желающих этого.



Делается это следующим образом.
За 3 месяца до выборов публикуются билеты компьютерного опроса. По сложности примерно сопоставимые с экзаменом в ГАИ по ПДД.
Тема любая. От школьной геометрии до русской словесности серебряного века. Чем дальше от политики, тем лучше.

Приходя голосовать, таварисчь первым делом вносит залог. Небольшой, но психологически чувствительный. Скажем рублей 500.(10$ для красоты счёта)
Затем он проходит компьютерный опрос на заранее опубликованную тему.
Скажем как в ГАИ, 20 вопросов 20 минут. Если он успешно прошел опрос, скажем правильно ответил на 10 вопросов (я в ГАИ в свое время ответил на 19 из 20), он голосует и на выходе с участка получает обратно свой залог. Если нет - компьютер нежным женским голосом советует через 4 года готовиться получше, а его залог идёт в фонд развития демократии.
Никакой дискриминации тут нет от слова совсем.(!!!)
Экзамены в ГАИ успешно сдают миллионы. Надо лишь ПРИЛОЖИТЬ УСИЛИЯ.
Но "голосующих сердцем" этот момент отсекает на 146%. Ибо одно дело просто прийти проголосовать и совсем другое, плотно потратить 3-5 вечеров на подготовку.

За идею и текст выше спасибо redgaim.
Взято отсюда: http://imed3.livejournal.com/4448091.html

вместо аргументов у юзера нашлось пару лишних хромосом

Оригинал взят у oleg_leusenko в Украинские ноутбуки и смартфоны завоевывают популярность (фото)
Буквально пару дней назад наткнулся на комменты, в которых вата выкручивалась из нового позора российского "айфоностроения" и обеливала никому не нужные примитивные йотафоны мэйд ин раша. Как и полагается во всех спорах, вместо аргументов у русского юзера нашлось пару лишних хромосом, чтобы ответить: "Американская техника почти не лучше. А у хохлов ваще ничего подобного нет. Украина даже через сто лет не создаст свой компьютер..".

Откуда бедному запоребриковцу знать, что первый в континентальной Европе компьютер был создан в Украине более 60 лет назад в 1951 году. Первая ЭВМ называлась Малой электронной счетной машиной - МЭСМ. Несмотря на скромное слово «Малая», она насчитывала 6000 электронных ламп и едва уместилась в левом крыле здания общежития бывшего монастырского поселка Феофания в 10 км от Киева. Машина была создана в лаборатории вычислительной техники Института электротехники АН УССР.

Impression Electronics

Между тем, украинцы производят свои и смартфоны, и ноутбуки, и планшеты, много чего. Этим летом Impression Electronics в четвертый раз представил свою продукцию на фестивале-ярмарке «Made in Ukraine».
Collapse )

Бинарный пепел?

Время сейчас такое...
Учёные дяди и тёти кстати тоже, говорят про информационную эру или цифровой век, кто во что горазд.



А что отсюда следует?
Следует очень простое явление. Войны тоже, теперь стали не простыми с луками и копьями, а самые что ни на есть информационные. А раз есть война, значит есть и поле боя и соответственно его оружие.



Словосочетанием "информационная война" в наш век когда космические корабли бороздят просторы большого театра не удивит даже бабушек у подъезда, что уж говорить о пользователях, да если ещё и продвинутых? Пожалуй, писать про данную штуку и не стоит, бо и так написано столько... Даже иллюстраций по нарисовано...



Разве что привести коротенькое ироничное определение, которое отражает самую суть и смысл "информационной войны".
Информационная война — целенаправленное, просчитанное по шагам на обозримое будущее, комплексное внедрение дезинформации, с целью получения профита от последующих просчитанных заранее действий лохов объектов воздействия.



Но пост немного о другом.
А Вы когда нибудь задумывались, что остаётся после отгремевших сражений информационной войны?
Во что превращается информационное оружие и соответственно такие же информационные фортификации?
Ели не задумывались, то не переживайте.
У меня есть предложение.

Бинарный пепел.

Как Вам такой вариант.
Да!
Именно такой.
Как Вам?
А теперь немного пояснений.
Тут всё не так уж и сложно, но и не так просто как могло бы быть. В первую очередь наблюдается метафорическая отсылка к бинарному коду(двоичному 10010010...). Двоичный код лежит в основе двоичной системы счисления, широко распространенной в современной цифровой технике.



Правильнее сказать, что это принцип ЕЁ работы.
Работы любой вычислительной техники на физическом уровне, то есть уровне физических процессов, протекающих в электрических сетях, чем по сути и являются процессоры, планки флэш-памяти...
Процессор/компьютер ведь "не понимает" буквы и цифры, картинки, видео, звук. Он обрабатывает электрический сигнал его наличие(1) или отсутствие(0). Если лезть дальше в дебри, то оба сигнала на самом деле присутствуют(из соображений надёжности работы), но они разноуровневые или по величине напряжения или по полярности, но для простоты принято что один есть другого нет.
Именно эти (0) и (1) и "понимает" компьютер, а соответственно с их помощью и кодируется вся информация.


Кодировка текстовых символов



А это уже цвет


Простейший пример рисунка

А Вы как думали?
Больше он ничего по сути и не делает, кроме как обрабатывает электрический сигнал, ну ещё конечно греется ;). А всё остальное - это уже разнообразное и разноуровневое ПО.

Вот и получается, что...
Если из "оружия" у нас только информация и полёт мысли, а отображаются они на электронных носителях, то есть в конечном виде и хранятся в виде последовательности электрических сигналов 10001011, то есть бинарном коде. Меньшей единицы информации нету.
Соответственно, от ликвидированной информации должен оставаться именно
бинарный пепел. По аналогии с радиоактивным.


Это вулканический пепел.

А вот какая иллюстрация подойдёт для бинарного пепла - увы, не знаю.
Возможно такая:

бинарный пепел.jpg

Или, может быть кто-то предложит и свой вариант?

Как-то так.

-Как объяснить проще?
-Не знаю.