Здоровая конкуренция дело очень хорошее. Все стремятся сделать лучше, дешевле и т.д. Бывают исключения (когда ресурсы ограничены сильно), но я не об этом. Проблема в том, что во многих отраслях как раз плохо с конкуренцией.
Вот есть Intel, формально у него есть конкуренты, а фактически он удачно устроился в своих нишах, где его подвинуть сложно и дорого. Остается получать прибыль и радоваться. Мотивации придумать принципиально новые процессоры большой нет. Порог входа в этот бизнес очень высокий — для других частников слишком сложно, дорого, без гарантий и премия за риск не так высока. Реальная опасность — крупные государственные проекты в этой области (китайцы).
Google — основной доход реклама в поиске. Так сложилось что очень много народа пользуется и не будет менять. На этот рынок непонятно даже как пролезть (Microsoft много пытался имея огромные ресурсы). Впрочем Microsoft тоже в своей нише монополист. Facebook тоже (хотя мне он кажется чуть более уязвим).
Apple с айфоном тоже по сути монополист в своей нише. У него 2 ниши: айфон (там только он) и смартфон (где людям все равно какая система и они выбирают по другим параметрам — здесь приходится конкурировать).
А вот Тесле не светят перспективы стать монополистом и хорошо заработать.
По сути мир здорово поделен небольшим числом компаний и это врядли способствует ускорению развития.
Эти компании выросли в конкурентной среде, спихнув с пьедестала предыдущих лидеров. До Google/Microsoft/Facebook/Apple были IBM/Xerox/Yahoo/Nokia/Motorola. Точно так же придёт время и гуглам подвинуться.
В этом смысл конкуренции.
Мотивации придумать принципиально новые процессоры большой нет.
Это как — принципиально новые?
Другая архитектура? Предлагаете весь софт, написанный за десятки лет, портировать с х86 на что-то новое? :) Линукс на десктопы не может прийти из-за 2-3 программ, а тут вообще всё менять надо будет.
Больше ядер? Программ под 2 ядра СPU вряд ли более 1%, большинство задач не распараллеливаются. А видеокарты уже давно с сотнями ядер.
Другая производительность? 5-6-10 ГГц? Боюсь без прорыва в фундаментальных науках тут прогресса не будет. Современные процессоры давно упёрлись в ограничения скорости света — нет смысла делать в 10 раз больше операций в секунду, если электрический сигнал за это время не успевает до оперативной памяти сбегать, которая в 10 см от процессора. Поэтому всё, что они делают — уменьшают размер и энергопотребление.
давно упёрлись в ограничения скорости света — нет смысла делать в 10 раз больше операций в секунду, если электрический сигнал за это время не успевает до оперативной памяти сбегать, которая в 10 см от процессора. Поэтому всё, что они делают — уменьшают размер и энергопотребление.
Стоп, че то не совсем понятно, о чем Вы говорите. Есть разница сколько за один квант времени совершается вычислений, тысяча или миллион? Почему ограничение скорости сигнала по-вашему == ограничение вычислительной мощности?
sortarray sortarray, сами со себе вычисления в вакууме никому не нужны. Результаты надо записывать в оперативку, брать цифры для новых операций и т.п. Кэш-память самого процессора около 6 мб, всё остальное — в пределах 10 см. При миллиарде операций в секунду это уже имеет значение.
Имея скорость 3*10^10 см/с и 4*10^9 операций в секунду, между операциями электрический сигнал может пройти 7,5 см в идеальных условиях ваккума в одну сторону. Понятное дело из-за кэша каждую операцию синхронизировать не надо, но тем не менее ограничение налицо. Кроме того, у нас не вакуум, плюс процессор работает не только с ОЗУ, но и с периферией, плюс внутри самого процессора тоже не магия.
Кмк, именно по этой причине процессоры так росли вначале, чуть ли не удваивая мощности каждые пару лет. Но в нулевых как упёрлись в 4 ГГц, так там и стоят. Видимо, ждут прорыва в квантовой технологии.
Кмк, именно по этой причине процессоры так росли вначале
Процессоры росли «вначале» по банальнейшей причине — увеличение тактовой частоты вкупе с удешевлением памяти, именно из этой халявы и выросла современная говноархитектура
Все что Вы выше написали — это экстраполяция этой говноархитектуры на архитектуру компьютера вообще.
iddqd3n, у Intel много ресурсов, можно серьезно тратиться и на фундаментальные исследования, вопрос выгодное ли это дело в их ситуации если можно без этого хорошо зарабатывать
MixStyleTrader, это просто только на словах :) Нельзя просто брать и покупать новые законы физики за деньги.
Не стоит забывать, что процессоры делает несколько фирм (даже не две), если кто-то прорвётся, конкуренты могут утонуть мигом, поэтому с R&D там всё в норме, просто время не пришло пока.
Программ под 2 ядра СPU вряд ли более 1%, большинство задач не распараллеливаются.
Большинство каких задач? Факториалы в вакууме, или реальные? Ничего что мозг работает конкурентно? Почему ему не насрать, что решаемые им задачи не параллелятся с точки зрения мамкиных теоретиков?:)
Если бы гугл думал, что его задачи не параллелятся, на его месте был бы яндекс:)
sortarray sortarray, 99% всех алгоритмов — чистая линейщина, пока не сделается А, не начнёт делаться Б. По этой причине процессоры с 8-ю ядрами не в 8 раз быстрее одноядерных, и до сих пор в основном процессоры идут по 2 ядра (+2 виртуальных через HT). Распараллеливаются хорошо графика (видеокарты давно с блоками по 700-1000+ ядер) и, например, кодирование мультимедиа.
sortarray sortarray, под управлением единой ОС, которая в фоне пытается этот фарш синхронизировать :) Распределяя процессорное время и области памяти, чтобы программы друг другу не мешали. Над всеми миллионами потоков всегда стоит один синхронизатор, иначе потоки наслоятся друг на друга и привет.
Если по-вашему всё так просто, вам стоит написать свой аппаратно-программный комплекс, это может быть прорывом.
iddqd3n, разговор идет не о том, что просто что не просто, к тому же простота, понятие субъективное, что просто для одного, то сложно для другого, отсюда и проистекают предпочтения в технологиях. В свое время мейнстрим вместе с корпорациями давил все проявления здравого смысла, теперь, когда уже намешана вся эта куча говна, и на ней все завязано, в том числе и ПО, и мозги программистов, теперь это очевидно не просто разгрести, но надо. А производителям процессоров эта сложность только на руку, теперь от них никуда не денутся, вся IT-коммерция у них на крючке, а любое позитивное начинание будет задавлено.
Не надо разговаривать про алгоритмы, понятие, к тому же математическое, а в CS также завязанное на текущую архитектуру(например — стековые вычисления), когда разговор идет о задачах
ЮРА, Мы в пресс-релизах по каждой сделке поясняем, зачем покупаем и какие от приобретения синергетические эффекты. Финансовые показатели купленных за последний год компаний можно посмотреть в аудир...
И долгожданная рубрика «Их нравы»
Немец Манфред Гендицкий, который провел 13 лет в тюрьме по ложному обвинению, теперь обязан заплатить €100 тысяч за проживание и питание во время заключения. Об...
#BTCUSDT
▪Тип сделки: Продажа по рынка
▪Цена открытия: 104930
▪Тейк профит: Открытый
▪Стоп лосс: 96780
▪Актуален: От 18.12.2024
▪Комментарий:
Рассмотрим сценарий по BTC. На данный...
Dobryak, думал ногу сломал, но обошлось — сильный разрыв тканей) поэтому дела не очень)
если по рынку — то смотрел по сбытам надбавки, нашел одну интересную компанию на внебирже (ДД 25-30%), но т...
Мало того, даже наличие конкуренции не будет гарантировать качественного развития экономики, из-за мусорного спроса(модные перделки etc)
сколько существуют все ваши перечисленные компании?
а сколько было известных марок сгинувших в небытие?
любой мамонт может сдохнуть если не будет двигаться
всё может уже завтра поменяться, конкуренция рулит
В этом смысл конкуренции.
Это как — принципиально новые?
Другая архитектура? Предлагаете весь софт, написанный за десятки лет, портировать с х86 на что-то новое? :) Линукс на десктопы не может прийти из-за 2-3 программ, а тут вообще всё менять надо будет.
Больше ядер? Программ под 2 ядра СPU вряд ли более 1%, большинство задач не распараллеливаются. А видеокарты уже давно с сотнями ядер.
Другая производительность? 5-6-10 ГГц? Боюсь без прорыва в фундаментальных науках тут прогресса не будет. Современные процессоры давно упёрлись в ограничения скорости света — нет смысла делать в 10 раз больше операций в секунду, если электрический сигнал за это время не успевает до оперативной памяти сбегать, которая в 10 см от процессора. Поэтому всё, что они делают — уменьшают размер и энергопотребление.
Стоп, че то не совсем понятно, о чем Вы говорите. Есть разница сколько за один квант времени совершается вычислений, тысяча или миллион? Почему ограничение скорости сигнала по-вашему == ограничение вычислительной мощности?
Имея скорость 3*10^10 см/с и 4*10^9 операций в секунду, между операциями электрический сигнал может пройти 7,5 см в идеальных условиях ваккума в одну сторону. Понятное дело из-за кэша каждую операцию синхронизировать не надо, но тем не менее ограничение налицо. Кроме того, у нас не вакуум, плюс процессор работает не только с ОЗУ, но и с периферией, плюс внутри самого процессора тоже не магия.
Кмк, именно по этой причине процессоры так росли вначале, чуть ли не удваивая мощности каждые пару лет. Но в нулевых как упёрлись в 4 ГГц, так там и стоят. Видимо, ждут прорыва в квантовой технологии.
Процессоры росли «вначале» по банальнейшей причине — увеличение тактовой частоты вкупе с удешевлением памяти, именно из этой халявы и выросла современная говноархитектура
Все что Вы выше написали — это экстраполяция этой говноархитектуры на архитектуру компьютера вообще.
Не стоит забывать, что процессоры делает несколько фирм (даже не две), если кто-то прорвётся, конкуренты могут утонуть мигом, поэтому с R&D там всё в норме, просто время не пришло пока.
Большинство каких задач? Факториалы в вакууме, или реальные? Ничего что мозг работает конкурентно? Почему ему не насрать, что решаемые им задачи не параллелятся с точки зрения мамкиных теоретиков?:)
Если бы гугл думал, что его задачи не параллелятся, на его месте был бы яндекс:)
И, к тому же Вы забыли о многозадачности. Пока одна программа считает свой алгоритм, другая, одновременно с этим, считает свой
Если по-вашему всё так просто, вам стоит написать свой аппаратно-программный комплекс, это может быть прорывом.
Не надо разговаривать про алгоритмы, понятие, к тому же математическое, а в CS также завязанное на текущую архитектуру(например — стековые вычисления), когда разговор идет о задачах