Ноутбук для обработки фотографий

Тема в разделе "Компьютерное оборудование", создана пользователем богдан777, 1 май 2010.

  1. #681 19 ноя 2013 в 01:23 | Ноутбук для обработки фотографий | Страница 35
    Последнее редактирование модератором: 19 ноя 2013
    У меня вопрос к знающим людям, может кто знает... Каковы перспективы интегрированных видеокарт интел в двухядерных процах на ноутбуках? Есть ли смысл? Суть идеи: сейчас вроде Iris Pro в четырёхядерном процессоре выдаёт вполне приемлемые результаты, но не могу найти инфу про двухядерные процы с Iris (без Pro). Apple ставит в свои тринашки про только последние процы (2х ядерные с Iris 5100), и сильно ли большая разница с 4х ядерными с Iris Pro (5200)? Планирую может через годик приобрести 13шку Про, вот не знаю, стоит ли её рассматривать вообще. 15шка не нужна т.к. она менее мобильна ,а дома есть монитор 27'. По идее интел должна выкатить более мощные процы с графикой...:unknown:

    P.S. Да, и я так понимаю чем выше частота самого проца тем лучше и для графики или это не имеет значения?
     
  2. Через годик ещё что-нибудь интересное появится. Вот тогда и выбирать надо.
     
  3. RulerM

    RulerM Куратор раздела Hard'N'Soft
    Команда форума

    Регистрация:
    13 фев 2006
    Сообщения:
    6.870
    Симпатии:
    219
    Баллы:
    0
    Адрес:
    Saratov, Russia
    Предупреждения:
    0
    Перспективы чего-то ждать от улучшений встроенного GPU нулевые, если мы говорим о совокупном быстродействии системы, а ведь сабж подразумевает, что это очень критично.
    Они таковые изначально, и ничего измениться не может.
    Для обработки фото абсолютно бесперспективно какое либо улучшение встроенного GPU, так как само его использование бесперспективно.
    Ведь встроенный GPU находится в процессоре = любое его использование отнимает быстродействие у процессора, не прямым образом, а тем, что увеличивает энергопотребление процессора = нагрев, и однозначно, все современные процессоры в связи с этим включают ограничение быстродействия, либо граничной частоты, либо использование ядер, либо то и другое вместе.
    Это не так заметно на десктопе (хотя отчасти и там), но абсолютно заметно в и без того ограниченных условиях охлаждения и энергопотребления в ноутбуке.
     
  4. Дык для определенных вычислений GPU ощутимо эффективней - и лучше его использовать. Даже ценой снижения быстродействия CPU.
    И софт уже есть вполне.

    - - - Добавлено - - -

    Это зависит от того софта, который вы бдете юзать тогда, когда соберетесь купить.
     
  5. RulerM

    RulerM Куратор раздела Hard'N'Soft
    Команда форума

    Регистрация:
    13 фев 2006
    Сообщения:
    6.870
    Симпатии:
    219
    Баллы:
    0
    Адрес:
    Saratov, Russia
    Предупреждения:
    0
    Это иллюзии ))).
    С фига ли ?
    GPU однозначно быстрее для расчета света в сложной 3D сцене - это факт ).
    Или для вывода 1080Р видео.
    А для обычных математических расчетов, коими и является конвертирование - CPU предпочтительнее.
    Если CPU + дискретный GPU - это да, конечно лучше, там где поддерживается.
     
  6. Полностью согласен.
    По моему опыту, попытки применения CUDA и т.п. технологий "нецелевого" использования графического процессора даже внешней видеокарты - на практике нередко вызывают проблемы, в связи с кривой их поддержкой тем или иным софтом. Огребал их и при рендеринге видео в Вегасе, и даже в Фотошопе. С тех пор придерживаюсь правила - 3D моща потребна именно для 3D, а для фото, видео и т.п. математики - куда лучше вложить деньги в общую производительность системы (процессор/память/винт).
     
  7. Приехал мой американский макбук. 15'' Retina, i7 Haswell 2.3, 16gb DDR3 1600, 512gb SSD, Iris pro + GTX750m

    [​IMG]


    [​IMG]

    Фотки смотреть на таком одно удовольствие, качество ОЧЕНЬ сильно отличается от моего монитора с фулл хд разрешением. Я очень доволен.

    Лайтрум на маке мне не понравился, поддержки ретины нет, полноэкранного режима тоже. Поставил Aperture - пробую что и как.
     
  8. RulerM

    RulerM Куратор раздела Hard'N'Soft
    Команда форума

    Регистрация:
    13 фев 2006
    Сообщения:
    6.870
    Симпатии:
    219
    Баллы:
    0
    Адрес:
    Saratov, Russia
    Предупреждения:
    0
    Хорошая машинка, хороший выбор.
    А конверторы - для Сони что на Маке, что ни на Маке есть DxO.
    Когда к нему придет конкретный человек - вопрос времени ). У вас есть шанс это время сократить ).
     
  9. Разница по производительности между 13 и 15 минимум в два раза, так как весь фото софт является мультипотоковым...
    Так же в 15-ах есть 128 мб кеша четвертого уровня.


    Вместо CUDA почитайте про openCL.

    FancyDancy
    Как дисплей? по равномерности...
     
  10. RulerM

    RulerM Куратор раздела Hard'N'Soft
    Команда форума

    Регистрация:
    13 фев 2006
    Сообщения:
    6.870
    Симпатии:
    219
    Баллы:
    0
    Адрес:
    Saratov, Russia
    Предупреждения:
    0
    Я ничего не говорил про CUDA ).
    Есть CPU - архитектура максимально годна для математических вычислений. Было время там Пентиум 4 ядро когда в деле было - там были расхождения из-за длинного конвейера. АМД по сути были сильнее в математике, а Пентиум 4 в мультемидийных потоковых операциях при условии использования SSE2\3 в коде. Сейчас все ровно. Оба конкурента с короткими конвейерами. CPU занимается тем, чем ему положено, и конвертирование - именно к такому и относится.
    Есть GPU - никаких чудес в этом нет, это такой же процессор с кучей ядер, только заметно слабее в математике, но заточенный на использование инструкций языков высокого уровня, которые написаны для работы с графикой. CUDA это, directX, OpenGL - не важно, это всего лишь конкретные примеры наборов инструкций. Он НИКОГДА не будет быстрее в математике )). Так как при одинаковом технологическом уровне всегда для математики выгоднее сделать более быстрый CPU.
     
  11. Как будет время и главное желание, то прочитать про вычисление используя ГПУ будет полезно. т.к. сила ГПУ проявляется в большом параллелизме вычислений.
    Например, брутфорс, чистой воды математика... сравните его скорость на CPU и на GPU. Уж и не говоря о копалках биткойна.

    Например, выключите поддержку ускорения в DXO.

    Что в 3д, что в 2д, везде идут массивы данных.

    А то, что ГПУ слабее в мат. вычислениях, это имхо вы загнули... ;) притом сильно. как говорится РТФМ.
     
  12. RulerM

    RulerM Куратор раздела Hard'N'Soft
    Команда форума

    Регистрация:
    13 фев 2006
    Сообщения:
    6.870
    Симпатии:
    219
    Баллы:
    0
    Адрес:
    Saratov, Russia
    Предупреждения:
    0
    Не нужно теорий. Не нужно брутфорсов и биткоинов. Для начала ВКЛЮЧИТЕ поддержку ускорения в DxO с Ирисом )))). И посмотрите что из этого выйдет.
    Напомню - здесь совершенно не теоретический разговор был, а о перспективности улучшенного ВСТРОЕННОГО в процессор GPU для ускорения обработки фото, причем речь идет про мобильные процессоры, и тема про ноутбуки.
    CPU + дискретный GPU это из разряда "почему бы нет", итог будет зависеть от желания писателей софта использовать наборы инструкций, поддерживаемых конкретным GPU.
    CPU + встроенный GPU - без шансов в обозримом будущем на какую-то пользу для обработки фото.
     
  13. С того, что GPU давно имеют API дял вычисления чего угодно.
    А нужные для фото расчеты как раз отлично параллеляться на массив вычислительных блоков (а не на узкий конвеер CPU).

    Да, и не надо путать OpenGL - это графика, и OpenCL - это вычисления.

    К примеру см. тут:
    http://graphics.cs.williams.edu/papers/BayerJGT09/

    Или тут: http://blog.phaseone.com/processing-speedup-using-opencl-in-capture-one-pro-7/

    680MX - это не супер-игровой ускоритель;-]
     
  14. Дисплей выше всяких похвал. Придраться просто не к чему.
     
  15. RulerM

    RulerM Куратор раздела Hard'N'Soft
    Команда форума

    Регистрация:
    13 фев 2006
    Сообщения:
    6.870
    Симпатии:
    219
    Баллы:
    0
    Адрес:
    Saratov, Russia
    Предупреждения:
    0
    И он НИКОГДА на встречается в ноутбуках ;)
    Обрати еще раз внимание о чем разговор ;).
    А теперь сходи вот сюда
    http://www.notebookcheck.net/Mobile-Graphics-Cards-Benchmark-List.844.0.html
    и удивись какие странные чипы называются в ноутбуках казалось бы знакомыми именами, но с буковками М ).
    На ноутбуке не вида игрового монстра практически невозможном поиметь GPU класса дискретной десктопной видюхи начального уровня за 5000 руб.
    И "игровой монстр" как раз будет на этом уровне )).

    А всего, чего добился Iris - сделал бесполезными чипы типа 710М ))). Ни о какой помощи вычислениям там речь в принципе не идет.
     
  16. #697 3 дек 2013 в 01:50 | Ноутбук для обработки фотографий | Страница 35
    Последнее редактирование модератором: 3 дек 2013
    Это из-за четырёх-ядерного процессора в пятнашках? Если сравнить при прочих равных этот процессор и этот, то разница будет в два раза?

    А вообще не понятна политика Apple. Почему бы не сделать (на выбор) 13-шку по мощности сопоставимой 15-ки средней комплектации...?:unknown:
     
  17. Вестимо, чтобы продажам не мешать и укладываться в общую линейку продолжительности работы от батареи. В маленький корпус большую батарейку не запихнуть. А cейчас же все логично, 13" Pro - что-то среднее между 13" Air и 15" Pro.
     
  18. RulerM

    RulerM Куратор раздела Hard'N'Soft
    Команда форума

    Регистрация:
    13 фев 2006
    Сообщения:
    6.870
    Симпатии:
    219
    Баллы:
    0
    Адрес:
    Saratov, Russia
    Предупреждения:
    0
    При равной частоте и архитектуре - да, 4 против 2 ядер в тяжелом современном фотософте практически в 2 раза дает увеличение скорости.
    Распараллеливается современный фотософт реально очень хорошо.
     
  19. #700 3 дек 2013 в 12:04 | Ноутбук для обработки фотографий | Страница 35
    Последнее редактирование модератором: 3 дек 2013
    В принципе какая им разница, я же всё равно буду у них покупать, не у Sony.

    Да пускай бы на пару часов меньше работал, не кретично. Мне важнее хорошая начинка в компактном корпусе. Собственно в Starbucks фото обрабатывать и заниматься другими ресурсоёмкими задачами не собираюсь, в основном это работа в эксель, в сафари и др. Тем более что при невысоких нагрузках проц работает при минимальных для него частотах что экономит заряд батареи. Зато дома при подключении монитора хорошая мощность будет весьма к стати!

    Вобщем как всегда потребителю не угодить! :rolleyes:
     

Поделиться этой страницей