Фотошоп совершенствуется, все больше функций получают поддержку CUDA. Брать карту дороже большого смысла нет, прирост не велик между 1060 и 1080. Но иметь запас никогда не помешает. Но я же не настаиваю. Оптимальное не значит обязательное. Можно успешно и встроенным видео пользоваться. Но мне больше нравится дискретная карта, тем более, что использую процессор без видеоядра. У кого как, у меня иногда несколько файлов при обработке больше 10-12 гб занимают. 128 вообще было бы супер Пока вот только о 64-х задумываюсь, под 128 дороговатые платформы, да и пока нет необходимости Да что вы говорите. Ну поставьте 4гб, запустите вашу проявку 1000 файлов с отключенной подкачкой. Не спорю. Слегка идеальные. Но все знакомые, кому в похожем ключе строил рабочие станции ооооочень довольны результатом. А так все верно. Есть возможности все делаем по разумному максимуму. Ограниченные возможности - значит оптимизируем железо под возможности. Так что я же не настаиваю, а лишь рекомендую. Человек спросил видеокарту на 300$. 1060 будет в самый раз по цене и производительности там, где это вдруг понадобится. И что тут "оторванного от жизни"? Еще забыл порекомендовать оптимизировать ось. Отключить обновления, телеметрию и прочие ненужности.
А вот тут абсолютно согласен! У меня 16ГБ оперативки и при отключенном файле подкачки (типа "экономил" SSD ) при экспорте ЛР (с открытым браузером с кучей вкладок со свободными 8-10 ГБ) часто бывало такое, что после конвертации ЛР выдавал окно, что такие-то файлы не удалось экспортировать. Также бывало, что относительно сложная панорама (8-10 кадров) не собиралась из-за "забивки" ОЗУ. После обратного включения файла подкачки в системе - все работает идеально!
Имхо очередной раз убеждаюсь что если брать проц то только i7. В обычной жизни при стандартной нагрузке i5 все тащит, но чуть дал Макс нагрузки и разница сразу заметна
Ну, речь шла о возможности в принципе и я имел ввиду отключение файла подкачки с 4 гигами при обычной нагрузке на железо на компе обычного пользователя. При большой нагрузке - да, такой вариант не прокатит. Непонятно. У меня тоже 16, тоже отключен файл подкачки (точнее - оставлен самый минимальный), но подобных эксцессов в анлогичных случаях ни в 7-ке, ни в 10-ке не было ни разу. Почему у вас тогда такое происходит? А проц какой у вас? Дело может быть в этом - недостаточности мощности проца при офигенной нагрузке? зы причём у меня по нынешним временам и не самый мощный проц: i7-4770 Выше уже отмечалось, что I5 последнего поколения c шестью ядрами вполне может дать фору I7 c его 4, пусть даже и с 8 потоками... Так что не все так однозначно... Но сам я человек старомодный и не взирая на всякие-разные тесты в подобном случае тоже взял бы i-7 в любом случае, как это и сделал несколько лет назад... Вопрос только в наличии денег.
Проц не причем. А память софт многий ест только так. У меня на 16 при C1, Affinity Publisher, Designer, браузере с сотней вкладок может и кончится.
i7700, при экспорте загружены на 100% все 8 потоков. Память на 2400 работает, если ничего не путаю. Может именно из-за этого? Попробуйте отключить совсем и экспортнуть несколько десятков фото с обработкой и ресайзом (особенно если в снимках активно применялись инструменты "кисть" и "Удаление пятен" ) ИМХО, все это было потому, что проц как раз справлялся слишком быстро и экспортировал сразу по 3-4 РАВ-ки и процесс упирался именно в свободную память. К тому же, как правило, при экспорте "не иду пить чай", а продолжаю и дальше работать за ПК, серфить в инете и т.д., т.е. память специально не экономлю. И кстати, из 16 ГБ ОЗУ 1 ГБ "уходит" на режим "Rapid Mode" (включен с помощью утилиты Samsung Magician). Но это все не важно - вернул файл подкачки - и все в порядке!
Ну с сотней открытых вкладок - это да... Сам лично сталкивался с потреблением памяти хромом с всего несколькими (3-4) вкладками в 5 гигов... И это не единичный пример. Не удивляет ни разу, если фото много... Почему такая большая нагрузка? Отключение графического процессора не помогает уменьшить нагрузку? Мне - уменьшило. А ранее тоже до 100 % доходило Совсем, полностью не даст винда... Поэтому и оставляю самый минимвльный. В 7-ке -16 мб, если мне память не изменяет (сейчас в Debian, не посмотреть) А проявку в несколько процессов не пробовали? Не рещает проблемы?
Отключен сразу после инсталляции Лайтрума Она разная бывает, в зависимости отжанра съемок. Если фотосессия женская - то самая большая нагрузка, т.к. ретушь любительскую делаю силами Лайтрума (несколько десятков-сотня кликов "Удаление пятен" + несколько объемных по площади участков с инструментом "Кисть"). Не знал, думал совсем отключал в 10-ке. Повторюсь - проблемы уже никакой и нет, как только опять вернул файл подкачки. А вот "Rapid Mode" в SSD, пожалуй, можно и выключить (не из-за Лайтрума, а вообще).
Почему никто не рассматривает продукцию AMD, только Intel/Nvidia? Это что инерция?, отсутствие оптимизации у Adobe? процессоры Ryzen сейчас очень хороши... и дешевле.
Ну почему. У меня Ryzen 1700 отлично пашет, взял сразу по выходу. И видео Radeon т.к. он в С1 заметно быстрее, а медленней только в паре каких-то фильтров, которые я не юзаю, и софте которого у меня нет;-]
Как именно вы это определяете, что Radeon заметно быстрее, чем Nvidia? Или есть соответствующие тесты?
Тоже озадачился сборкой компа. И тоже любитель. Разрываюсь между двумя идеями 1) собрать систему на вырост в Mini-ITX корпусе на базе NVidia 1050 Ti с мощностью про запас и будущий 4К монитор, которого пока нет и 2) купить 4К моноблок со встроенной HD Graphics 630 HP Elite One 1000. Посмотрел тесты, NVidia 1050 Ti выдает скорость 12938 и разрешение 7680х4320, а HD Graphics 630 скорость 2744 и разрешение 4096х2304. Т.е. скорости встроенной и внешней карты отличаются в разы. Есть еще моноблок DELL XPS 7760 у него кроме встройки HD Graphics 630 есть еще AMD Radeon 570RX со скоростью 19463. Но в Dell не нравится концепция, что все железо затолкано в панель монитора, говорят греется, и шумит. К тому же 4К мониторы Dell дают неравномерную цветовую темепературу по экрану, раз уже обжигался. Вот и сомнения 1) собрать систему на вырост на базе 1050 Ti и пользоваться пока 2K монитором до тех пор, пока не появятся качественные 4К или 2) плюнуть на все и купить 4К моноблок, правда не знаю какой (зато нет торчящих проводов).
Я против моноблока. Не думаю, что там хорошая матрица. А вдруг захочется в очередой раз "вырасти" и поменять монитор.
есть, в теме по C1 давал ссылку Это смотря на сколько. Если есть желание года два-три работать, а потом брать целиком новый - почему бы и не. Ну и матрицы все надо смотреть. Есть вариант Kaby Lake-G с хорошей интеграшкой AMD, не знаю какие на ней моноблоки, но есть вот такие штуки https://www.ixbt.com/news/2018/04/14/beelink-kb-g1-game-intel-kaby-lake-g.html
В конторе, где сегодня обсчитывал компьютер меня тоже склоняют к варианту шестиядерный i5 восьмого поколения вместо четырехядерного i7 седьмого поколения. Можно сказать, что убедили... ☺️
Как заядлый геймер могу сказать, что видеокарта на обработке фото никак не сказывается. Даже при монтаже видео разница между 1070 и встроенной в проц видюхой на проекте, обвешанном эффектами, от силы... треть, если не меньше. На фото же видеокарта используется только для отображения фотографий на экране и то в очень специфических ситуациях.
Меня терзают те же сомнения. По сути в материнке, что я беру, есть Intel Graphics UHD 630, которая чуток быстрее HD версии. Тоже склоняюсь, что встройки должно хватить с запасом под 4к и обработку фото. Получается, что внешняя видеокарта, а настроился на AMD Radeon 570 RX, будет просто висеть и не использоваться. ☺️
Если не гамать то встроенной хватит, по тестам 630 вполне себе с 4к справляется, а для обработки фото все таки видеокарта не сильно важна. А вот процы восьмого поколения это огонь! i3 8350k ставил на днях человеку в сборку - метелит все игры только так, при тесте в кодировании h264 процентов пять разницы с i7 4770...