Комментарии участников:
новость интересная но про "общее назначение" явно кто-то подвирает
www.tilera.com/products/TILE-Gx.php
очень узкая специализация. отсутствие совместимости с x86, отсутствие сравнительных тестов с обычными процами…
www.tilera.com/products/TILE-Gx.php
очень узкая специализация. отсутствие совместимости с x86, отсутствие сравнительных тестов с обычными процами…
Сначала согласился с Вами, потом прочитал новость еще раз,
так что все верно :)
процессоры общего назначения, которые, как ожидается, найдут применение в серверах, где требуется одновременное выполнение нескольких задач
так что все верно :)
Тоесть, понятия не имеем нафиг мы их сделали, зато круто: аж 100 ядер. Пусть ктонибудь найдет нафиг они нужны ;)
Можно вспомнить видеокарты. Например GeForce GTX 285 имеет 240 потоковых процессора. Через CUDA их можно задействовать. Вот только есть проблема. Надо ещё поискать задачу где возможно такое применение.
Apache и MySQL уже портированы, что не может не радовать. Да и стоимость в пределах 400-1000$ делает его покупку очень привлекательной (выход стоядерного процессора намечен на начало 2011 года).
штука баксов — стоимость классического топового проца.
Intel Core i7 870 2.93GHz LGA1156 4x256Kb L2 cache BOX725.5$
Intel Core i7 975 3.3G 4x256Kb/8Mb LGA1366 BOX 43990.00 р.
и вовсе не факт что 100 узкозаточеных ядер смогут "сделать" топовый проц хотя бы на заявленных задачах типа потокового видео…
Intel Core i7 870 2.93GHz LGA1156 4x256Kb L2 cache BOX725.5$
Intel Core i7 975 3.3G 4x256Kb/8Mb LGA1366 BOX 43990.00 р.
и вовсе не факт что 100 узкозаточеных ядер смогут "сделать" топовый проц хотя бы на заявленных задачах типа потокового видео…
На самом деле надо взять пиковую производительность каждого ядра, умножить на 100 и мы получим пиковую идеальную производительность, при усовии что задача идеально распараллелена и нет никаких потерь за счет общих данных, доступа к памяти и т.д.
Я когда учился в университете, университет хвалился что купили в США суперкомпьютер nCube с аж 64 процами… так вот, несложный подсчет привел к плачевным результатам — этот компьютер уступал даже в своей идеальной пиковой производительности среднему процу Р4… хотя безусловно как лаборатория для параллельных вычислений — очень даже пригодился.
Я когда учился в университете, университет хвалился что купили в США суперкомпьютер nCube с аж 64 процами… так вот, несложный подсчет привел к плачевным результатам — этот компьютер уступал даже в своей идеальной пиковой производительности среднему процу Р4… хотя безусловно как лаборатория для параллельных вычислений — очень даже пригодился.
все правильно. подобная архитектура рулит там где идет много одинаковых однотипных легкораспараллеливаемых операций. самый правильный пример — видео, 3д графика, в меньшей степени 2д и аудио. но это никак не похоже на "общеприменимые"
вопрос в том на кой черт надо упираться в какой-то новый непонятный ни с чем не совместимый процессор, если существуют достаточно развитые и дешевые технологии создания распределенных вычислительных центров на базе уже имеющегося легкодоступного оборудования?
я думаю у них ниша другая — роутеры, видеочипы потоковые и т.п.
про распределенный вычисления имхо для красного словца
про распределенный вычисления имхо для красного словца
а… ну базару нет, тогда ладно
вон в Toshiba активно в свои ноуты встраивает собственный процессор
SpursEngine для аппаратного декодирования HD Video без использования центрального процессора
вон в Toshiba активно в свои ноуты встраивает собственный процессор

да, кстати. тоже вчера подумал именно про сопроцессоры. еще вспомнился AGEIA PhysX