У меня вопрос к знающим людям, может кто знает... Каковы перспективы интегрированных видеокарт интел в двухядерных процах на ноутбуках? Есть ли смысл? Суть идеи: сейчас вроде Iris Pro в четырёхядерном процессоре выдаёт вполне приемлемые результаты, но не могу найти инфу про двухядерные процы с Iris (без Pro). Apple ставит в свои тринашки про только последние процы (2х ядерные с Iris 5100), и сильно ли большая разница с 4х ядерными с Iris Pro (5200)? Планирую может через годик приобрести 13шку Про, вот не знаю, стоит ли её рассматривать вообще. 15шка не нужна т.к. она менее мобильна ,а дома есть монитор 27'. По идее интел должна выкатить более мощные процы с графикой...:unknown: P.S. Да, и я так понимаю чем выше частота самого проца тем лучше и для графики или это не имеет значения?
Перспективы чего-то ждать от улучшений встроенного GPU нулевые, если мы говорим о совокупном быстродействии системы, а ведь сабж подразумевает, что это очень критично. Они таковые изначально, и ничего измениться не может. Для обработки фото абсолютно бесперспективно какое либо улучшение встроенного GPU, так как само его использование бесперспективно. Ведь встроенный GPU находится в процессоре = любое его использование отнимает быстродействие у процессора, не прямым образом, а тем, что увеличивает энергопотребление процессора = нагрев, и однозначно, все современные процессоры в связи с этим включают ограничение быстродействия, либо граничной частоты, либо использование ядер, либо то и другое вместе. Это не так заметно на десктопе (хотя отчасти и там), но абсолютно заметно в и без того ограниченных условиях охлаждения и энергопотребления в ноутбуке.
Дык для определенных вычислений GPU ощутимо эффективней - и лучше его использовать. Даже ценой снижения быстродействия CPU. И софт уже есть вполне. - - - Добавлено - - - Это зависит от того софта, который вы бдете юзать тогда, когда соберетесь купить.
Это иллюзии ))). С фига ли ? GPU однозначно быстрее для расчета света в сложной 3D сцене - это факт ). Или для вывода 1080Р видео. А для обычных математических расчетов, коими и является конвертирование - CPU предпочтительнее. Если CPU + дискретный GPU - это да, конечно лучше, там где поддерживается.
Полностью согласен. По моему опыту, попытки применения CUDA и т.п. технологий "нецелевого" использования графического процессора даже внешней видеокарты - на практике нередко вызывают проблемы, в связи с кривой их поддержкой тем или иным софтом. Огребал их и при рендеринге видео в Вегасе, и даже в Фотошопе. С тех пор придерживаюсь правила - 3D моща потребна именно для 3D, а для фото, видео и т.п. математики - куда лучше вложить деньги в общую производительность системы (процессор/память/винт).
Приехал мой американский макбук. 15'' Retina, i7 Haswell 2.3, 16gb DDR3 1600, 512gb SSD, Iris pro + GTX750m Фотки смотреть на таком одно удовольствие, качество ОЧЕНЬ сильно отличается от моего монитора с фулл хд разрешением. Я очень доволен. Лайтрум на маке мне не понравился, поддержки ретины нет, полноэкранного режима тоже. Поставил Aperture - пробую что и как.
Хорошая машинка, хороший выбор. А конверторы - для Сони что на Маке, что ни на Маке есть DxO. Когда к нему придет конкретный человек - вопрос времени ). У вас есть шанс это время сократить ).
Разница по производительности между 13 и 15 минимум в два раза, так как весь фото софт является мультипотоковым... Так же в 15-ах есть 128 мб кеша четвертого уровня. Вместо CUDA почитайте про openCL. FancyDancy Как дисплей? по равномерности...
Я ничего не говорил про CUDA ). Есть CPU - архитектура максимально годна для математических вычислений. Было время там Пентиум 4 ядро когда в деле было - там были расхождения из-за длинного конвейера. АМД по сути были сильнее в математике, а Пентиум 4 в мультемидийных потоковых операциях при условии использования SSE2\3 в коде. Сейчас все ровно. Оба конкурента с короткими конвейерами. CPU занимается тем, чем ему положено, и конвертирование - именно к такому и относится. Есть GPU - никаких чудес в этом нет, это такой же процессор с кучей ядер, только заметно слабее в математике, но заточенный на использование инструкций языков высокого уровня, которые написаны для работы с графикой. CUDA это, directX, OpenGL - не важно, это всего лишь конкретные примеры наборов инструкций. Он НИКОГДА не будет быстрее в математике )). Так как при одинаковом технологическом уровне всегда для математики выгоднее сделать более быстрый CPU.
Как будет время и главное желание, то прочитать про вычисление используя ГПУ будет полезно. т.к. сила ГПУ проявляется в большом параллелизме вычислений. Например, брутфорс, чистой воды математика... сравните его скорость на CPU и на GPU. Уж и не говоря о копалках биткойна. Например, выключите поддержку ускорения в DXO. Что в 3д, что в 2д, везде идут массивы данных. А то, что ГПУ слабее в мат. вычислениях, это имхо вы загнули... притом сильно. как говорится РТФМ.
Не нужно теорий. Не нужно брутфорсов и биткоинов. Для начала ВКЛЮЧИТЕ поддержку ускорения в DxO с Ирисом )))). И посмотрите что из этого выйдет. Напомню - здесь совершенно не теоретический разговор был, а о перспективности улучшенного ВСТРОЕННОГО в процессор GPU для ускорения обработки фото, причем речь идет про мобильные процессоры, и тема про ноутбуки. CPU + дискретный GPU это из разряда "почему бы нет", итог будет зависеть от желания писателей софта использовать наборы инструкций, поддерживаемых конкретным GPU. CPU + встроенный GPU - без шансов в обозримом будущем на какую-то пользу для обработки фото.
С того, что GPU давно имеют API дял вычисления чего угодно. А нужные для фото расчеты как раз отлично параллеляться на массив вычислительных блоков (а не на узкий конвеер CPU). Да, и не надо путать OpenGL - это графика, и OpenCL - это вычисления. К примеру см. тут: http://graphics.cs.williams.edu/papers/BayerJGT09/ Или тут: http://blog.phaseone.com/processing-speedup-using-opencl-in-capture-one-pro-7/ 680MX - это не супер-игровой ускоритель;-]
И он НИКОГДА на встречается в ноутбуках Обрати еще раз внимание о чем разговор . А теперь сходи вот сюда http://www.notebookcheck.net/Mobile-Graphics-Cards-Benchmark-List.844.0.html и удивись какие странные чипы называются в ноутбуках казалось бы знакомыми именами, но с буковками М ). На ноутбуке не вида игрового монстра практически невозможном поиметь GPU класса дискретной десктопной видюхи начального уровня за 5000 руб. И "игровой монстр" как раз будет на этом уровне )). А всего, чего добился Iris - сделал бесполезными чипы типа 710М ))). Ни о какой помощи вычислениям там речь в принципе не идет.
Это из-за четырёх-ядерного процессора в пятнашках? Если сравнить при прочих равных этот процессор и этот, то разница будет в два раза? А вообще не понятна политика Apple. Почему бы не сделать (на выбор) 13-шку по мощности сопоставимой 15-ки средней комплектации...?:unknown:
Вестимо, чтобы продажам не мешать и укладываться в общую линейку продолжительности работы от батареи. В маленький корпус большую батарейку не запихнуть. А cейчас же все логично, 13" Pro - что-то среднее между 13" Air и 15" Pro.
При равной частоте и архитектуре - да, 4 против 2 ядер в тяжелом современном фотософте практически в 2 раза дает увеличение скорости. Распараллеливается современный фотософт реально очень хорошо.
В принципе какая им разница, я же всё равно буду у них покупать, не у Sony. Да пускай бы на пару часов меньше работал, не кретично. Мне важнее хорошая начинка в компактном корпусе. Собственно в Starbucks фото обрабатывать и заниматься другими ресурсоёмкими задачами не собираюсь, в основном это работа в эксель, в сафари и др. Тем более что при невысоких нагрузках проц работает при минимальных для него частотах что экономит заряд батареи. Зато дома при подключении монитора хорошая мощность будет весьма к стати! Вобщем как всегда потребителю не угодить!