Мдэ, я когда себе видеокарту покупал, одно из главных требований было - поддержка OpenCL для работы в Capture One. И да, с ней реально быстрее.
Спасибо, посмотрел этот тест, внимательно почитал. Да, цифры впечатляют, но речь идет о замерах производительности только и лишь во время использования функции новой функции Lightroom Classic CC (8.2) "Enhanced Details", использующей WinML/CoreML и очень ресурсоемкой. Цитата: " Если вы используете "Enhanced Details" достаточно часто и вы хотите ускорить процесс, установка более нового и более быстрого GPU, безусловно, позволит сделать это. Если у вас уже есть современный GPU, разница может составлять всего несколько секунд, поэтому не ожидайте, что вы сможете применить это к тысячам изображений сразу, не делая перерыв на кофе". И вторая цитата: " Прямо сейчас, часто очень важно иметь достойный GPU, но для большинства пользователей нет большой причины инвестировать в дорогую видеокарту". Собственно, я об этом и говорил. И где же значительное увеличение скорости? Где? Несколько секунд? И это в нетипичной и неиспользуемой большинством функции "Enhanced Details"? evv, "Enhanced Details" - хорошо, но не попадались ли вам подобные тесты, сделанные при выполнении обычных, рядовых задач Lightroom Classic, Photoshop? Да, этот график красивый. Спасибо. Но не более того - пруфлинка на тест нет и это просто картинка ни о чем. Где первоисточник? И используются в нем далеко не бюджетные, а скорее топовые решения, вовсе не типичные для использования рядовым пользователем продукта. Вы знаете, вышеприведенная статья, их тесты и вами приведенное утверждение из статьи о ненужности мощной видеокарты более убедительны и хоть чем то обснованы, чем ваши, неподтвержденные ничем личные ощущения. Увы, но это так. Так это же не значит, что ваш пример единственно верный, как у любимой КПСС. : ) Обратных примеров, когда снятие галки снимало тормоза - великое множество. Гугл в помощь. Именно. Всё равно любой прогресс и любое техническое ускорение упирается в возможности человека. Поэтому этот данный схоластический спор в ветке о якобы реальной потребности в мощной видеокарте к жизни 99,9 % форумчан не имеет никакого отношения. Так, всего лишь теория, не имеющая никакого отношения к жизни большинства пользователей редакторов. Итого, камрады, резюмирую свои впечатления от диспута : вы не убедили таки меня, что мне, как рядовому и обычному пользователю нужно вкладывать 20 000 рублей и больше в дорогущую и ненужную мне видеокарту. Но я вовсе не против того, что если у вас есть лишние деньги и вам нравится использование дорогих графических решений и вы верите в то, что в разы ускорились, то пожалуйста. Спасибо вам всем за участие в диалоге!
Вы правда считаете, что чтобы развеять ваши заблуждения все остальные сейчас должны резко начать искать какие-то там тесты? Померять разницу производительности в модуле Develop, где использование GPU и дает основное преимущество, очень сложно: фактически, там нужен весьма специфичный скрипт, который будет взаимодействовать с UI, а также специфичный бенчмарк, который будет каким-то образом фиксировать изменение скорости рендеринга, что, в данном конкретном случае, не очень просто. Но оно и не требуется - разницу в данном случае видно невооруженным глазом. Просто некоторые люди, которые "верят исключительно фактам" в это не верят, а другие - с удовльствием этой возможностью пользуются. Несколько секунд? Посмотрите на график внимательнее: разница между бюджетной 1066 и встройкой не несколько секунд, а сотни секунд. Она там больше, чем десятикратная в целом. Почему вы выделяете вторые части цитат, не обращая внимания на первые? "Современный" и "достойный" GPU - это явно не то непотребство, которое Intel ставит в свои процессоры, даже топовые. "Современный" и "достойный" GPU - это, на данный момент, 1066 минимум, и то с натяжкой. И говоря о разнице в несколько секунд, в статье сравнивают не встройку с бюджетными дискретными видеокартами, а бюджетные, но приличные дискретки с их топовыми собратьями. Это RX580 - топовая и нетипичная для рядового пользователя видеокарта? В вашей статье нет ни единого теста. То есть вообще ни одного. Ни одного графика, ни одного замера производительности, ну, ничего - оно и есть ничего. А в ответ вам, как бы, приведены уже не только личные ощущения, но и графики. У меня на этот вопрос есть восхитительный ответ: Ой, подождите, но кто же это сказал? Вы правда считаете, что видеокарта уровня 1066 нужна только одному формучанину из тысячи? Это, по вашему, факт, которому нужно верить? Нельзя в чем-то убедить того, кто заведомо не готов принимать аргументы и слушать.
У меня нет никаких заблуждений. У меня все ровно и я ясно представляю и суть и общий предмет спора. Мною всего навсего были заданы вопросы , где я речь веду о предоставлении убедительных доказательств значительного прироста производительности в обычных операциях в редакторах в случае использования внешней карты, но которых так и не появилось в ветке. В связи с отсутсвием доказательств вы меня ничем и ни в чём не убедили. Ибо ваше мнение основано только на ваших личных наблюдениях. Но ИМХО вы не пишите, а выдаете ваше мнение за факт. Но ваше личное мнение и ваши предположения без обоснования ведь не истина в последней инстанции, верно? Всё. Спасибо за диалог. В подобном бессмысленном и бездоказательном споре ни о чем уже не вижу никакого смысла, отвечать более здесь и офтопить не буду. Спасибо всем ещё раз. зы а погуглить я обязательно погуглю. Не для спора - в нем для меня поставлена точка, а для углубленного понимания мною этого вопроса, чтобы не вестись на разводы об обязательной необходимости мощной видеокарты.
nauticus, это просто потрясающе, на мой взгляд. Графики, демонстрирующие кратное преимущество, пусть и на специфичных задачах (но для которых, зато, время на операцию можно легко померять) - это неубедительные доказательства. Статья без единого графика, без единой цифры - это убедительное доказательство. Спор в таком ключе, действительно, смысла не имеет никакого.
Приветствую, коллеги. Планирую собрать комп взамен старенького ноута. Посоветуйте по минимуму, какие основные характеристики он должен включать, для комфортной (или приемлемой) работы в конвертерах. Предпочтение отдаю родному бесплатному софту (Кэнон, Никон, Сони, с Кэнон совсем беда), из неродных пользуюсь Silkipix. РАВ-ы от 24 мп матриц, но думаю возможно будет и что то типа 42... Что взять простому любителю, чтоб и по минимуму, но и железо не "умерло") Бегло пролистал обсуждение, большей частью споры, да и честно говоря далек я от компьютерной тематики. Немного б систематизировать информацию в голове и внести какую то конкретику. Вопрос апгрейда назрел уже остро и не только для фото)
Основа проц. i5 свеженький 8 или 9 поколения. Можно взять i3 для экономии, проверено, работает хорошо в редакторах если не усугублять слоями итд. Далее мать под проц недорогая, 8гб оперативы минимум, обязательно ssd! Все остальное по желанию и по деньгам хоть корпус с подсветкой) З. Ы. За интеле не топлю, просто пишу в чем сам уверен.
vetersiama, спасибо! Начну с процессора, далее буду докупать постепенно. На Интел пожалуй и остановлюсь. Кажется встречал мнение, что DPP на нем работает лучше всего.
nauticus, Procyon, На самом деле спор правильный, только какой-то странный. Как будто у вас нет компьютера с установленным фотошопом/лайтрумом. Зачем искать какие-то пруфы, если можно всё то же самое повторить у себя? Вот, например, я повторил что-то похожее из приведённого видео. У меня на не самой топовой конфигурации тормозов нет. Вообще. Т.е. данные процессы меня не раздражают: А вот выделение по маске - меня раздражает. Оооочень медленно. Вот если кто, имея крутую видеокарту, выложит своё видео, где это происходит хотя бы раз в 5 быстрее - меньше, чем в 5 раз ускорение будет на уровне ощущений и покупка видеокарты того не стоит, ИМХО - вот тогда я пойму, что мне лично, для моих личных задач видеокарта нужна. А вот тот график экспорта 500 RAW в С1 - ни о чём. Если Вы каждый день снимаете свадьбы, и у Вас сессия - 1000 снимков, то экспортируются они за 6 минут, или за 4 один раз в день - не существенно. Для рядового пользователя, с его 5-10 за сессию, разница между двумя и тремя секундами экспорта - вообще ни о чём. Поэтому моё личное мнение, что производительность должна вырасти не менее, чем в 5 раз, чтобы задумываться об апгрейде или покупке более дорогой железки. К примеру, разница в производительности i5-8400 vs i3-8100 в синтетике меньше 20%. А разница в цене - в 2 раза. Стоит ли переплачивать десятку за то, что увеличение яркости займёт не 0,1 сек, а 0,08 сек (Условно)? Опять же, ИМХО.
Приобрел на алиэкспресс: материнская плата HUANAN X79 Процессор XEON 2660 v2 (точно не вспомню) 10 ядер 20 потоков ОЗУ: 4х8 GB серверная SSD 128Gb HDD 2Tb Лайтрум очень шустрый, загружает все 20 ядер. Экспорт 1 фото с сони а99 занимает 2 секунды против 6и на предыдущем компе с i5 Доволен короче.
Друзья, посоветуйте. Организовываю еще одно рабочее место. Решил купить/собрать себе рабочую станцию для обработки фото в Adobe Lightroom, Adobe Photoshop, Capture One. Есть мысли купить моноблок. Стоит ли? Если собирать самому, то какой примерно конфигурации будет достаточно? На что обратить внимание? Давно уже не "связывался" с комп. железом. Что нынче актуально? Сейчас работаю на ноутбуке Samsung RC730 (2011 года) i7-2670QM, 16Гб оперативной памяти, SSD (система) + HDD, Intel(R) HD Graphics 3000 (2108 МБ)/NVIDIA GeForce GT 540M (2 ГБ) Монитор 24 дюйма LG какой то там. В принципе все работает. Но работает на пределе возможностей и не так быстро, как хотелось бы. Да, обработка фото с камер a99m2 и a7Rm2.
Imho выбирать проц надо не ниже i5-8400 (https://cpu.userbenchmark.com/Compare/Intel-Core-i7-2670QM-vs-Intel-Core-i5-8400/1982vs3939). Для начала (а может и надолго) подойдет и встроенное видео. Оперативки 32ГБ должно хватить. Обычный системник в компактном корпусе будет дешевле и шустрее, чем ноут/моноблок.
Встроенный графический адаптер intel 630 поддерживает разрешения: 4096х2304 @ 24-30 Гц через HDMI; 4096х2304 @ 60 Гц через DisplayPort
Насчет использования видеокарты - в 4K ее отключение в фотошопе приводит к заметным рывкам при простом сдвиге картинки и масштабировании (ноут 7700HQ и nv1050). В лайтруме в девелоп еще заметнее. На компе 7700К и ATI RX470, отключение видяхи заметно, но не так сильно.Но разрешение монитора ниже - 2560. А вот еще такая ситуация с видеокартами. На ноуте работают 2 видеокарты - встроенная в процессор (интел 630) и внешняя (nv1050). Не так давно заметил, что некоторые операции на ноуте грузят под 100% встроенную, другие - внешнюю, а процессор при этом отдыхает (и вентиляторы тоже). На компе примерно также, но т.к. встроенная в процессор отключена, вместо нее задействуется процессор (7700K), загружая все ядра и разгоняя кулер. Тогда я залез в биос и дополнительно к внешнему включил встроенное видео (тот же интел 630 в процессоре) - стало как на ноуте. По времени выигрыш небольшой (5-10%), но освободились ресурсы процессора + шума меньше.
Berilyon, Иметь встроенное видео и дискретное в компьютере не имеет смысла. Дело в том, что для связи процессора с видеокартой используются так называемые линии PCI-E. Если бы не было встроенного видео, то дискретному видео отводилось бы 16 линий (стандарт, даже разъем на мат. плате под видеокарту обозначается PCI-Eх16). А на встроенное видео выделяется 8 линий PCI-E. И 8 линий PCI-E остается на дискретную видеокарту, т.е. пропускная способность шины падает вдвое из-за этого дискретная видеокарта работает не на все свои возможности. Даже если в BIOS отключить встроенное видео линии PCI-E не переключатся на дискретную видеокарту, а просто "пропадут"
Не понял, а как тогда полностью задействовать внешнюю видеокарту, ведь встроенная сейчас идет чуть ли не во всех процессорах?
Berilyon, Никак. Покупать процессор без встроенного видео. Их немало. Дорожки внутри кристалла процессора идущие к кристаллу видео распаяны насовсем. Они не "переключаются"
Sharhan, т.е. в моем случае - ничего не урезалось включением встороенной, тем более видяхи грузятся под 100%, а PCI-Eх8 или 16 - не принципиально, это не узкое место?