Über meine Eindrücke von Lightroom 6 habe ich euch ja schon ausführlich berichtet. Ein offener Punkt war noch die Performance Frage und ob sich die Investition in eine schnellere Grafikkarte lohnt. Immerhin hat Adobe ja vollmundig versprochen, durch die Auslagerung von Berechnungslogik in beschleunigte Grafikkarten, fantastische Performance Vorteile zu erzielen. Ich habe nun eine sehr schnelle Grafikkarte getestet und möchte euch, wie versprochen, berichten.
Am Ende gibt es dann noch ein kurzes Video, wo ich Lightroom mal einen kleinen Wettlauf machen lasse…
Vor dem Umbau hatte ich in meinem Rechner eine Geforce 660 Ti – eine Karte von Anfang 2013, die nach 2 Jahren sicherlich auch noch nicht zum ganz alten Eisen gehört. Allerdings hat sich in den letzten 2 Jahren aber doch etwas getan, und so soll die Geforce GTX 980, die ich mir nun bestellt habe, mehr als doppelt so schnell sein, zumindest laut Gegenüberstellungen im Netz. Die GTX 980 ist schon relativ «High End», vom Preis/Leistungsverhältnis her, wäre die GTX 970 wohl besser gewesen.
Ich habe sie also eingebaut und zunächst einmal den Test wiederholt, den ich neulich schon gemacht habe: Bilder exportiert. Einer der absoluten Flaschenhälse in Lightroom, das hatte ich euch ja schon im Video gezeigt. Und was ich schon vermutet hatte, hat sich bestätigt: an den Zeiten hat sich nichts geändert.
Kein Wunder, denn mittlerweile hat Adobe auch Details dazu preisgegeben, für welche Funktionen Lightroom 6 überhaupt nur die Grafikkartenunterstützung einsetzt:
Hierfür nutzt Lightroom 6 / CC Grafikkartenbeschleunigung:
- nämlich nur für die Echtzeitdarstellung der meisten (Ausnahmen s.u.) Entwicklungseinstellungen im Entwickeln-Modul
Und ja, das geht auch bei mir jetzt gefühlt flotter mit der neuen Grafikkarte. Aber ehrlich gesagt ist das schwer zu vergleichen, deswegen eben «gefühlt». Ansich war die Performance in dem Bereich bei mir auch schon vorher okay. Ein Bewegen der Regler löst mit der GTX980 Änderungen am Bild so gut wie in Echtzeit aus. Allerdings nur, wenn Lightroom nicht im Hintergrund Bilder exportiert, HDR’s zusammensetzt oder ein Panorama berechnet! Dann nämlich, wird alles relativ zäh, da die Prozessoren voll ausgelastet sind.
Folgendes profitiert derzeit in Lightroom 6 / CC nicht von einer schnellen Grafikkarte:
- Die Bibliothek und alle anderen Module – außer Entwickeln
- Die Schnellentwicklung in der Bibliothek
- Der Export (!)
- Die HDR Funktion
- Die Panorama Funktion (hätte mich auch gewundert!)
- Der Korrektur-Pinsel und die Bereichsreparatur im Entwickeln-Modul (probiert es mal aus, der ist nun schnarchlahm, wenn die Grafikkartenbeschleunigung eingeschaltet ist)
- Der zweite Bildschirm, falls ihr Lightroom im Zweischirm-Betrieb fahrt
So, da haben wir es. Die Grafikkarte beschleunigt also nur die direkte Auswirkung der Regler auf das Bild im Entwickeln Modul.
Hochauflösende Monitore
Und Adobe hat mittlerweile auch erklärt, warum sie das Thema überhaupt angehen mussten: immer mehr Kunden setzen mittlerweile hochauflösende Monitore ein. Während ein normaler Full-HD-Bildschirm 2 Megapixel darstellt, sind es bei einem 4K-Display schon 8MP und bei 5K ganze 15 MP. Die Anzahl der darzustellenden Pixel wächst also quadratisch und ich gehe davon aus, dass die alte Ansteuerung hier massiv an ihre Grenzen gestoßen ist.
Adobe stellt klar, dass die Grafikkarten-Beschleunigung umso mehr Effekt hat, je größer die Auflösung des Bildschirms ist! Mit einem Full HD-Bildschirm werdet ihr also kaum einen Unterschied merken, mit einem 4K Bildschirm hingegen schon.
Mangels eines Solchen, kann ich euch dazu leider derzeit keine Praxis-Erfahrungen liefern, aber es klingt plausibel.
Adobe erklärt aber auch, dass auch die Grafikkarte keine Wunderwaffe sei und eben nur bestimmte Aufgaben, nämlich solche, die sich gut parallelisieren lassen, hier sinnvoll ausgelagert werden können. Weiterhin gibt es einen gewissen «Overhead» dadurch, dass die Daten ja zunächst vom Hauptspeicher in die Grafikkarte geladen werden müssen, bevor sie dort verarbeitet werden können. Das merkt man dann, wenn unterstützte Werkzeuge mit nicht Unterstützten (Pinsel, Bereichsreparatur) interagieren.
Als kleine Hoffnung spricht Adobe davon, dass die derzeitige Umsetzung in Lightroom 6 nur der Anfang sei. Es steht also zu hoffen, dass mit wachsender Erfahrung in dieser Art der Beschleunigung auch weitere Funktionen entsprechend beschleunigt werden.
Meine Einschätzung
«Grafikkartenbeschleunigung» ist schon fast zu einem Marketing-Begriff geworden. Dass selbst bei einer angepriesenen solchen Unterstützung keine Wunder zu erwarten sind, zeigt das aktuelle Lightroom 6. Dass es auch anders geht, zeigt z.B. die beliebte Software zur Panoramaberechnung PTGui. Die dort vor einiger Zeit eingeführte Unterstützung von Grafikprozessoren hat zu einer enormen Beschleunigung beim Zusammensetzen von Panoramen geführt. Davon kann Adobe derzeit nur träumen. Aber der Knackpunkt ist: schon ohne die Grafikkarten-Unterstützung war PTGui bereits deutlich schneller als die Adobes Panorama Funktion. Und hier liegt meines Erachtens nach ein Teil des Problems, das Lightroom schon lange mit sich herum trägt.
Anstatt sich nun darauf zu stürzen, werbewirksam die Funktionalitäten eines Moduls nach dem anderen in die Grafikkarte auszulagern, könnte Adobe sich auch mal den Kern-Programmcode vornehmen. Schlechte Programmierung ist nämlich die größte und häufigste Ursache für Performance Engpässe.
Dazu habe ich ein kurzes Video für euch gemacht, in dem ich Lightroom mal zum «Wettrennen» herausgefordert habe. Aber seht selbst…
Das Wettrennen – Video
Ich muss es noch einmal wiederholen: auch, wenn das jetzt drastisch aussieht: es schmälert nichts daran, dass Lightroom ein großartiges Tool ist! Wir jammern hier auf hohem Niveau. Und meiner Meinung nach ist LR6/CC nicht langsamer, als die Vorversion. Den gerade erschienene Einschätzung von Heise Photo zum Thema Lightroom Performance kann ich, bei allem Respekt für den Heise Verlag, nicht ganz nachvollziehen.
Meine Empfehlung
Solltet ihr euch nun eine neue Grafikkarte kaufen?
Das hängt davon ab. Folgende Fragen solltet ihr euch stellen:
- Lohnt es sich noch, euren Rechner aufzurüsten und ist es überhaupt möglich? Aus meiner Sicht macht es bei Rechnern, die älter als 4 Jahre sind, keinen Sinn eine moderne Grafikkarte einzusetzen. Hier wärt ihr mit mehr Hauptspeicher und schnellen SSDs sicherlich besser bedient.
- Habt ihr einen Monitor mit höherer Auflösung, als Full HD oder plant ihr, einen solchen zu kaufen? In diesem Fall kann eine neue Grafikkarte etwas bringen und wird auch bei Lightroom den größten Effekt ausspielen.
- Merkt ihr, wenn eure Rechner sonst im Leerlauf ist, beim Betätigen der Regler im Entwickeln-Modul große Latenzen? Dann könnte eine schnellere, beschleunigte Grafikkarte helfen.
Ob die Grafikkartenbeschleunigung bei eurem Rechner von Lightroom derzeit überhaupt genutzt wird, seht ihr übrigens in Lightroom unter «Voreinstellungen -> Leistung».
Wenn ihr nicht wisst, welche Grafikkarte ihr habt, findet ihr Infos darüber unter «Systeminformationen»:
Vergesst nicht, dass die Grafikkarte nur eine Komponente in einem Rechner ist. Bevor ihr hier investiert, solltet ihr auf jeden Fall vorher in Hauptspeicher und schnelle SSDs investiert haben, die bringen nämlich einen deutlich größeren Effekt bezüglich der Performance!
Mit dem von mir vor 2 Jahren zusammengestellten Rechner kann ich, da ich die Komponenten damals sorgfältig ausgewählt habe, heute immer noch ohne Performance-Einbußen arbeiten und das auch bei anspruchsvoller Nutzung. Selbst, wenn ich gleichzeitig Sequenzen mit LRTimelapse rendere und ein Video mit Premiere Pro ausgebe, kann ich noch flüssig arbeiten.
Die neue Grafikkarte hat sich derzeit vom Preis-/Leistungsverhältnis für mich sicherlich nicht unbedingt gelohnt – aber vielleicht steht dann ja doch irgendwann mal ein 4K Monitor an… :-)
Hat Dir der Artikel gefallen?
Dann melde Dich doch bitte zu meinem kostenlosen Newsletter an. Dann bekommst Du eine Nachricht bei neuen Artikeln und Du wirst auch exklusiv als erstes über neue Workshops und Reisen informiert! Außerdem gibt es dort auch immer wieder Hintergrund-Infos, die so nicht im Blog stehen.
Natürlich freue ich mich auch sehr, wenn Du mir bei YouTube, Instagram und Facebook folgst.
Alle Inhalte © Gunther Wegner
*) Mit einem Stern gekennzeichnete Links sind externe Partner-Links. Ihr unterstützt mich, wenn ihr darüber bestellt. Alternativ könnt ihr auch über folgende Direktlinks in die Shops wechseln:
Amazon.de, Amazon.at, Amazon.com, Foto Koch, Augenblicke-Eingefangen, camforpro.com.
Über meine Zusammenarbeit mit externen Partnern habe ich hier ausführlich geschrieben. Danke!
Hallo liebe Fotofreunde,
Ich befasse mich auch schon länger mit Fotografie und Color Management und hier ist Nvidia Marktführend. Es gibt bestimmt Grafikkarten die 10bit darstellen können. z.B. GTX 970.…wurde auch bei Pixel-Computer verbaut. Hatte auch schon ein Gespräch in Würzburg bei einer Ausstellung mit Ihm persönlich.
Voraussetzung ist natürlich:
a) richtige Grafikkarte z.B. alle Quadros
b) richtiger Anschluss zum Monitor Display Port
c) entsprechender Monitor der 10 bit fähig ist
Die Grafikkarte wird immer mehr zum für Anwendungen wichtiger. Natürlich kostet soviel Qualität dann auch seinen Preis.
Für alle interessierte habe ich eine sehr gute Adresse im Web, worüber Ihr sehr viel über Performance von PC und Anwendungen lesen könnt.
Gerade über Adobe – Produkte.…aber schaut selbst und macht euch schlau:
Ich hoffe hiermit einigen zu Helfen
und verbleibe mit Grüßen
Edwin
Nvida unterstützt keine 10 bit.
Z.B. Pixelcomputer bauen dafür eine Fire Pro von der Konkurrenz ein. Auch auf Nachfrage bei anderen Herstellen einschließlich Eizo und Benq bekam ich immer die Auskunft 10 Bit Farbdastellung ist mit Nvida nicht möglich weil Nvida es zwar kann aber nicht freischaltet.
es istso lustig das jeder zweite zu 10bit etwas anderes meint. kann mal jmd wirklich bestätigen das 10bit mit nicht fire pro oder quattro karten funktioniert ?
es kann ja nicht sein, dass soviele leute sich irren.
und ich kann mir schwer vorstellen das nur noch eine pro karte verkauft werden würde wenn es da nicht einen bonus zu den consumer karten gäbe.
ich werde es in ein paar tagen mit einer rx480 am eizo cs240 testen und werde berichten.
vg
Hab seit paar Tagen einen 4k Monitor. 10 bit geht mit NVIDIA. Ich konnte es zumindest in der System steuerung von NVIDIA einstellen. Karte zur Zeit eine GTX780
Sorry, sicher passiert es nicht von selber neue Kamerafilter und Profile zu entwickeln. Aber sooo riesig ist der Aufwand im Vergleich zum Gesamtpaket nun auch nicht. Und vor allem ist Lightroom wirklich alles andere als «schnell» programmiert.
Man sehe sich nur ein altes View NX an, wie schnell das Bilder öffnen kann, im Vergleich zu den verschiedenen LR Versionen.
Und dann kommt noch dazu:
Fast alles was Adobe entwickelt wird mehrfach verwertet:
LR, Photoshop CC, Photoshop elements.
Das macht zwar den Programmieraufwand nicht kleiner, aber die Einnahmen größer.
Gruß
Jürgen
Hallo Gunther,
guter Beitrag zu Ligthroom 6, das meiner Meinung nach intern mit einer speziell von Adobe programierten Transmissionsriemen-Einheit arbeitet… :-)
Da Du von Softwareentwicklung etwas verstehst weist Du sicher auch, das man heute am liebsten alle Programme mit einer Pragrammiersprache(z.B.Java), für alle Betriebssysteme, programmieren möchte, was nie richtig funktionieren kann! Das wissen aber leider nur Wenige. Von Assembler-Programmierung hat heute auch keiner mehr ein Ahnung. Heute möchte eine Softwarefirma wie z.B. Adobe so wenig wie möglich Entwickler beschäftigen mit möglich kleinem Gehalt und möglichst geringen Kosten für die Entwicklung. Auf der anderen Seite werden Unmengen Geld ins Marketing eines beschixxenen Produktes gesteckt statt endlich mal ein brauchbares Produkt zu entwickeln! So sieht in etwa die heutige Idiotie in der Softwareentwicklung aus, ich weis wovon ich rede.
Ich habe z.B. einen MacPro mit 8 Kernen und 4 GPUs und sitze vor meinem Rechner und warte und warte und warte.…
Mit meiner neuen Fuji und den RAF-Dateien ist es noch schlimmer als mit Sony-RAW. Einfach nur noch grausam diese unfähigen Programmierer. Ich hatte Adobe mal eine gesalzene Email geschrieben, habe aber bis heute nichts von diesen Adobe-Genies gehört… :-)
Warum programmierst Du nicht ein einfaches «Lightroom»? Wenn man die Konkurrenz von Ligthroom so anschaut, dann könntest Du Millionen damit verdienen!!!! Ich bin mir da mehr als Sicher. Und in den nächsten Jahren wird Adobe und Andere, ihre liebgewonnene und gewinnmaximierende «Geschäftsphilosophie» sicher nicht ändern, es kostet einfach zu viel…
Iridient Developer hat eine gute Picture-Engine aber eine seit 12 Jahren nicht verbesserte Benutzeroberfläche. Man fühlt sich in die 90er versetzt, wenn man diese Program benutzt… echt peinlich.
Ich und tausende Andere würde für ein gut programmiertes Programm im Stiele von Ligthroom mindesten 200–300.- bezahlen und jährlich 50.- ‑100.- für Updates etc, dieses Programm gibt es aber noch nicht… ??? im Jahr 2016…!
Sorry, mußte daß mal los werden, es ist wirklich frustrierend angesichts dieser Unfähigen «Programmdesigner» und anderer Software-«Genies».
Viele Grüße und mach weiter so. :-)
Gruß Willi
Du solltest den Aufwand nicht unterschätzen, der die Entwicklung und Wartung eines RAW Konverters mit sich bringt. Jede neue Kamera will unterstützt werden, für jedes objektiv wollen Profile erstellt werden. Und dann möchtest du noch, dass das in Assembler für jedes Betriebssystem separat entwickelt wird. Da unterschätzt du die Aufgabe aber erheblich. Selbst für ein großes Team, wie Adobe es hat, ist das schwierig, alleine nicht machbar.
PS: Danke aber trotzdem für Dein Vertrauen in mich ;-)
Hallo Gunther,
Du hast natürlich Recht, ein RAW-Konverter für verschiedene Kameras plus Profile ist nicht einfach, das ist schon Verständlich. Als ich noch programmierte, und die Grundstruktur feststand und die Funktionen einen Programmes funktionierten, dann wurden die zeitkritischen Programmteile noch in Assembler programmiert und die Performacesteigerung des Programmes standen im Vordergrund.
Heute gibt es sicher gute Programmiersprachen die schnell und relativ einfach sind. Es sollten solch komplizierte Programme aber speziell auf und mit dem jeweiligen Betriebssystem programmiert werden. Mac hat ja z.B. eine eigene Programmiersprache (Swift) speziell für ihr System mit OpenCL, OpenGL, Grand CentraL Dispath und wie die alle heißen. Auf diese Art programmiert würde Lightroom sicher
mit Turboeffekt arbeiten… :-)
Naja, warten wir halt noch 10 Jahr, vielleicht gibt es dann einen 200 Kerne-Rechner mit 40 GPUs der innerhalb einer 1/10 sec., in Lightroom, von einem Bild zum anderen wechselt und in «Echtzeit» zoomen kann.… :-)
Habe übrigens bei Katalogeinstellungen und Dateihandhabung die Vorschaugröße auf 1440 eingestellt und die Qualität auf mittel. Irgendwie geht das Zoomen auf 100% jetzt schneller…
Ich weis ja nicht wie Lightroom intern die Daten verarbeitet aber das 100% Zoom- Jpg wird wohl dadurch schneller berechnet, was Lightroom bei jedem Zoomen macht…?
Das gehypte Affinity-Photo das Du vielleicht kennst, wurde speziell auf Mac programmiert und funktionierte auch sehr schnell, leider funktioniert es mit Fuji-RAF nicht und stürtz ab… :-) ist es nicht ein schweres Kreuz, das man als Hobbyfotograf tragen muß..? :-)
Viele Grüße und Danke füe Dein Mitgefühl. :-)
Hallo,
ich habe an mein neues Notebook (Asus N550JK) mit 4K Bildschirm einen 4K Monitor angeschlossen
Prozessor: i7 – 4710HQ 2,5 GHz
RAM: 16 GB
GraKa: GeForce GTX 850M
Zuvor hatte ich ein Notebook ohne 4K und einen normalen HD Bildschirm. Seit dem Umstieg auf 4K ist Lightroom 5.7. spürbar langsamer geworden. Vor allem das Freistellen ist eine Qual geworden. Ich wollte eigentlich mit dem neuen Notebook Lightroom flüssiger laufen lassen, leider ist nun das Gegententeil der Fall :(. Ist meine Hardware zu schlecht für die 4K Bearbeitung?
Ich wollte zudem mal schauen ob Lightroom meine Grafikkartenbeschleunigung verwendet, jedoch ist bei mir unter «Voreinstellungen» der Reiter «Leistung» gar nicht vorhanden!? Was kann das bedeuten?
Vielen Dank schon mal.
Grüße
Für die Grafikbeschleunigung brauchst Du mindestens Lightroom 6. Und gerade bei 4K hift die Grafikbeschleunigung. Lauf Adobe waren die neuen 4K Bildschirme der Grund, die Grafikbeschleunigung in LR6/CC einzubauen, da die alte Verarbeitung da zu langsam ist. Immerhin muss Lightroom gegenüber Full HD 4x soviele Anzeigedaten verarbeiten.
Also: Upgrade auf LR6/CC und dann nochmal checken.
Nach dem Upgrade auf Lightroom 6 läuft es jetzt viel flüssiger :)
Danke!
Bei mir stellt LR sobald es etwas zu arbeiten gibt, wie das Aufladen auf LR-mobile, den PC ab. Kann das mit der Grafikkarte einen Zusammenhang haben? Meine hat «nur» 2GB.
Wie, schaltet den PC ab? Stürzt ab? Schalte doch mal die Nutzung der Grafik-Beschleunigung in den Lightroom Einstellungen ab.
Entweder es ist alles blockiert, weder Maus noch was anderes kann bewegt werden. Somit gibt’s nur eins Strom abstellen und neu auffahren, oder er «restartet» von selbst neu.
Gut ich hab jetzt mal die Grafikkarten Unterstützung ausgeschaltet. Mal schauen wie er sich jetzt verhält. Danke.
Anmerkung noch:
Die R7 250 lief bei mir mit Windows 8.1 und seit Erscheinen des dubiosen Datensammelobjekts Windows 10
auch damit. Aktuelle Radeon Treiber und funktioniert.
Einzige Einschränkung:
Öfter mal wird beim Geraderichten die Freistellung «vergessen». Das Problem hab ich aber an einem anderen PC auch und findet sich auch mit anderen Grafikkarten im Netz.
Gruß
Hallo Gunther,
da ich mittlerweile auch mit Lightroom 6 an einem Eizo CX271 arbeite und meine derzeitige Grafikkarte den Geist aufgegeben hat, wollte ich mir die von dir empfohlene GTX 970 bestellen, habe aber festgestellt, dass diese Karte keinen Display Port-Anschluss hat. Kann ich ohne Nachteile auch den vorhandenen HDMI-Anschluss nutzen oder welche Karte könntest du mir stattdessen empfehlen (etwa die Preislage der GTX 970)? Danke für die Info!
Grüße
Manfred
Hallo Manfred,
dann schau mal nach einem anderen Hersteller der GTX 970 – eigentlich haben die alle einen Displayport, da musst Du ein Exoten-Layout erwischt haben.
Weiter: Die GTX hat bereits HDMI 2.0 (und kann somit Auflösungen höher als FUll-HD bedienen). Die Frage bleibt, ob das auch der HDMI-Eingang des EIZO kann (Worst-Case wäre, dass der nur HDMI 1.4 kann. Wie mein «toller» Dell, weswegen ich nur DP nutzen kann). Ich hatte mal auf der Webseite
von Eizo nachgeschaut aber die haben scheinbar bei den SPECS ein falsches Modell hinterlegt. Schau mal nach, wenn ja, dann hättest Du die Qual der Wahl. :-)
Aber: wie gesagt, das richtige Modell der GTX 970 ausgewählt – dann hättest Du DP 1.2 und HDMI 2.0 dabei.
Hallo Gunther,
vielen Dank für die rasche Antwort. Habe gerade auf digitalkamera.de gelesen, dass der Eizo CX271 die HDMI-Version 1.3 hat. Da ich mich mit Grafikkarten nicht auskenne, weiß ich halt nicht, ob die Geforce GTX970 für mich eine Fehlinvestition ist. Welche Karte könntest du mir empfehlen, um bei Lightroom 6 nichts zu verpassen?
Grüße
Manfred
Meinst Du wirklich Gunther? … oder mich, Michael.
Die Wahl der «richtigen» Grafikkarte ist derzeit recht schwer, wie ich finde. Radeon hat derzeit, was Auflösung jenseits von Full-HD anbelangt, die Nase vorne. Wobei Nvidia i.d. Regel sparsamer ist als die Radeon Pendants. Wenn man warten kann (so wie ich), dann sollte man abwarten was bei Nvidia in den nächsten Wochen passiert (die hatten diese Woche eine Vorstellung einer neuen GRAFKA im kleinen Fachkreis), man geht davon aus, dass es vor der neuen Pascal-Generation (2016) ein interessantes Zwischenmodell geben könnte.
Aber: aufgrund des Defektes der alten Karte kannst Du wahrscheinlich nicht warten. Ergo: ich würde mir im Web bei einem Hardwareversender (alternate.de, Arlt.de oder Cyberport) einfach mal die aktuellen Modelle anschauen. Dabei darauf achten, das die Modelle meines Begehres HDMI 2.0 und Displayport bieten. Dann würde ich die Liste der Kandidaten mit den Testbewertungen (z.B. chip.de, pc-welt.de usw.) abgleichen – wichtig wäre mir dabei vor allem die Lautheit der Karte und dann die Energieeffizienz. Übrigens, kann der Vorgänger des derzeitig aktuellsten Radeon-Chips preislich durchaus interessant sein => mein Tipp, sich anschauen, welche der Karten ebenfalls HDMI 2.0 und DP anbietet …
Hi,
da die Grafikkartenperformance bis heute eher unbedeutend ist, habe ich bis jetzt immer die schnellsten Grafikkarten mit Radeon Chipsatz verwendet.
HDMI und DVI schaffen problemlos die Aufloesung des
CX271 mit 2560x1440. Selbst hatte ich an einer Radeon R7 250 zwei CX270 ( Vorgänger ohne LED Hintergrundbeleuchtung ) betrieben. Aktuell sind es zwei Radeon R2 250, zwei CX270 und ein EV2736W.
Die Perfomancetests bisher sind recht durchwachsen.
http://www.heise.de/foto/artikel/Nachgemessen-GPU-Beschleunigung-in-Lightroom-6-und-Lightroom-CC-2626770.html
Bis auf weiteres würde ich eine leise Grafikkarte ( großer passiver Kühler ohne Propeller ) kaufen und sollte es mal ein Update mit echter Leistungssteigerung bei Verwendung von schnellen Grafikkarten geben, kann man immer noch eine neue wirklich optimierte Karte kaufen.
Bis dahin werden die schnellen Karten schneller und weiter billiger. Die 100 Euro die man in die «Übergangslösung» investiert hat sind dann leicht wieder eingespart.
Gruß
Jürgen
Hallo
Lightroom verwendet bei mir immer die Intel HD Graphics 5500, anstelle der GeForce Grafikkarte (jedenfalls steht das so in den Voreinstellungen). Wie kann ich das ändern? In der NVidia-Systemsteuerung, wo ich für jedes Programm einstellen kann, welche Grafik verwendet werden soll lässt sich Lightroom nicht auswählen (nur Lightroom CEF-Helper, aber das scheint nichts zu bringen).
Hallo Gunther,
meine Frage, ich möchte mir Lightroom 6 kaufen (mein «erstes»)die Frage ist nur ob mein Rechner damit klar kommt, ca.5 Jahre alt. Läuft mit Wind.7, 4GB Arbeitssp. zum vergleich Gimp 2.8 und Nikon View NX2 macht für meine Nutzung keine Probleme läuft…kein Ruckeln.
Hallo Udo, lade Dir doch mal die Testversion von Adobe herunter und probiere es selbst. Funktionieren wird es schon, ob es für Dich schnell genug ist, kannst ja nur Du entscheiden!
Hallo Gunther,
ich arbeite mit LR 5.7.1. Seit dem Wechsel von der D300 auf die D750 fällt mir auf, dass LR die Kameraprofile zu Nikon Kameras (D2x…) unter «Kalibrierung» nicht mehr darstellt, außer den Adobe Profilen. Abgespeichert sind – in einem separaten Ordner, neben den Adobe-Profilen, Kameraprofile vieler Hersteller, z. B. auch der D750.
Wird da von der Kamera nichts an LR geliefert? Bei Bildern meiner D300 werden, auch unter meiner LR-Version, die D2x-Profile dargestellt.
Ist dies bei dir ebenso gewesen und unte LR6 anders?
Unter Camera Raw9 sind dieselben Objektiv- und Kameraprofile abgespeichert wie unter LR 5. Bin ich nur zu blöd diese zu laden? Auch wenn ich schon beobachtet habe, dass die Raw-Dateien sich beim Öffnen teilweise in der Farbgebung ändern (automatische Anpassung durch ein hinterlegtes Profil?) . Da die angegebenen Kameraprofile so bezeichnet sind wie im Adobe-Ordner abgelegt, somit der Präfix D750 fehlt glaube ich nicht an eine automatische Anpassung.
Würdest du mir hierzu deine Erfahrungen mitteilen?
Mit freundlichen Grüßen
Bernd Gantert
Hallo Bernd, ich weiß es nicht, nutze keine Kamera Profile.
Salute,
bis zu Lightroom 5.7 musste ich mir über Geschwindigkeit nicht wirklich sorgen machen – alles war im Bereich des «sehr» erträglichen. Mit Lightroom 6 kann ich die Kritik zum ersten Mal aus eigener Erfahrung nachvollziehen. Dabei nutze ich derzeit noch nicht mal das Entwickeln-Modul, sondern bewege mich nur in der Bibliothek und der Gesichtserkennung.
Dabei stürzt Lightroom 6 sogar häufig ab bzw. gibt keine Rückmeldungen mehr, wenn man z.B. zu viele / oder zu lange an den Gesichter-Tags arbeitet. Häufig kann man sogar beobachten, dass wenn man weitere Gesichter manuell bekannten Namen zuweist, Lightroom mit dem Addieren nicht mehr hinterher kommt.
Kurzum: ich hoffe mal auf baldige Updates.
Zum Rechner: Programm und Bilder liegen auf getrennten 1 TB SSD´s. 16 GB RAM Hauptspeicher + Nvidia GTX 680 mit 2 GB RAM; Core I7. Monitor 2560 x 1440 OS: Windows 8.1
Moin,
viele berichteten dass LR 6 nicht so stabil läuft wie
die älteren LR Versionen.
Vor gut einer Woche hab eich die GPU Funktion abgeschaltet, von der selbst Adobe inzwischen sagt sie brächte nur was bei 4k und 5k Bildschirmen.
Was soll ich sagen.
LR 6 ist wieder so stabil wie eh und je.
Das habe ich vor einigen Tagen schon an anderer Stelle
berichtet und gleichlautendes Feedback bekommen.
Der GPU Support bringt nicht nur an wenigen Stellen ( sprich Teilen des Entwickelns was ).
Es ist auch schon schlecht umgesetzt, weil es nur in
wenigen Aufloesungen etwas bringt und zudem auch noch
instabil läuft.
Keine Angst, meine Treiber sind aktuell. Und das Feedback trifft nicht nur AMD oder Nvidia.
Das ist ein Adobe Problem.
Marketing Overhype.
Vorfreude ist die schönste Freude.
Freuen wir uns auf ds nächste Update…
Gruß
Jürgen
Klasse! Eine schnelle Grafikkarte macht vorallem im Videoschnitt wirklich Sinn. Lightroom 6 verbessert hier nur das Rendering der Oberfläche!
Nach dem Heise Artikel habe ich auch mal nachgemessen. Zur Info: i7-4770 und 8 GB Ram. Graka habe ich zwar auch, aber die macht ja beim Export eh nicht mit. Mit LR 5.7 dauerte der Export von 67 Bildern 5:36 min mit etwa 50% CPU Last mit LR 6 5:15 dafür aber mit 95 % Last. LR 6 ist also minimal schneller dafür aber mit deutlich höherer Leistung und damit auch höherer Stromverbrauch verbunden. Im Entwickeln Modul habe ich noch keine größere Performance gemerkt. Liegt vielleicht aber auch daran, dass ich keine Vollformatbilder habe. Den Heise Artikel konnte ich zwar nicht bestätigen aber eben auch nicht komplett umdrehen.
Echt schade, dass Adobe die Performance nicht endlich mal deutlich steigert. Auf diesen minimalen Zugewinn kann ich jedenfalls verzichten.
Der vom Heiseverlag publizierte Geschwindigkeitsvergleich scheint aber auch anderweitig bestätigt zu werden – siehe zum Beispiel https://www.youtube.com/watch?v=PhOF_L0eesw
Hast Du eigentlich schon mal Capture One getestet? digitalkamera.de ist der Meinung, dass das Entwickeln-Modul teilweise bessere Ergebnisse liefert: (http://www.digitalkamera.de/Meldung/Adobe_bringt_Lightroom_6_und_Lightroom_CC/9493.aspx)
Florian
Hallo,
ich benutze hier das neue Lightroom an einem Macbook Pro (2,5 GHz Core i5, 16 GB RAM) unter Mac OS X Yosemite. Von einer Geschwindigkeitssteigerung im Vergleich zu LR 5 kann ich hier nichts erkennen. Im Gegenteil – der Import und Export dauert gefühlt sogar länger wie bei LR 5.
Ich habe den Import-Dialog schon zweimal abgebrochen, da es nicht mehr weiterging und mit der Hälfte der Bilder hängen blieb. Alles mit einer D800 und RAW-Dateien.
Also insgesamt hinterlässt das Programm bei mir gerade einen zwiespältigen Eindruck. Die Panorama Funktion ist im Vergleich zu PtGUI oder auch Hugin etwas spärlich – auch wenn sie auf DNG-Dateien basiert. Die Gesichtserkennung brauche ich eigentlich nicht.
Mal sehen was da noch so alles kommt..
Gruß
Volker
Hallo Volker,
habe bereits hier: http://gwegner.de/review/lightroom-6-performance-grafikkarte/comment-page‑1/#comments
… bitte ganz nach unten scrollen … wie ich mit dem Problem umgegangen bin. Nach deaktivieren des «Grafikprozessor verwenden» unter LR 6.x läuft wieder prima.
Grüße,
Martin (Rgbg.)
Danke für den Tip. Ich habe mir das gerad mal angesehen und bin echt erstaunt:
Menü: Lightroom – Voreinstellungen – Leistung
Dort ist die Verwendung des HD4000 Grafik Prozessors meines Macboos angekreuzt. Klickt man auf ‘Weitere Informationen..’ kommt man zu der Seite:
- https://helpx.adobe.com/lightroom/kb/lightroom-gpu-faq.html
Dort wird die Grafikkarte beim Mac als ‘unsuported Graphic Card’ angegeben. In den Systeminformatioinen von Lightroom schein allerdings alles ok zu sein…
Ja, das ist Anfangs etwas irritierend, da der OpenSource-Treiber unterstützt, die Grafikkarte selbst aber nicht.
Ich bin dabei geblieben, den Grafikprozessor (wird ja nicht unterstützt) nicht mehr verwenden zu lassen.
Grundsätzlich hab ich so an der Performance nicht mehr allzuviel zu mäkeln. Beim Importieren ist LR 6.x gefühlt langsamer. Das stört mich aber weiter nicht. Komme ich nach einer Fototour nach Hause, so lasse ich die Daten der SSD einlesen und erledige so lange andere Dinge.
Wie schon geschrieben – alles mit einem 13 Zoll MacBook Pro aus Mitte 2009 mit 8Gb RAM! :-)
Kann man in LR6 endlich Tastenkommandos zuweisen?
Noch lieber wären mir Makros…Das ist für mich der «Nervpunkt» schlechthin. In AE kann ich mich dumm und dämlich konfigurieren und in LR geht fast nix, verstehe ich nicht.
Nein, zumindest nicht offiziell.
Super Bericht. Danke!
Danke für Deine Einschätzung.
Ich hätte mir gewünscht, dass Adobe solche Dinge, wie die Gesichtserkennung gar nicht erst einbaut. Ich kann mir nämlich nicht vorstellen, dass LR das Modul gar nicht benutzt, wenn man es abschaltet. Ebenso brauche ich keine Karte, auf der ich Aufnahmeorte meiner Bilder sehen kann.
Ich würde es besser finden, wenn solch ein Schnickschnack sozusagen als Zusatzmodul aktiviert werden könnte, wenn man es denn wirklich benötigt.
Und wozu gibt es die Diaschau, die Erstellung einer Webseite? Dafür gibt es deutlich bessere Programme.
Dass Bilder wesentlich schneller Importiert werden können, zeigt Photo Mechanics – auch, wenn man das Programm nicht mit LR vergleichen kann. Dazu sind die Aufgaben der beiden Programme zu unterschiedlich. Aber auch FastStone erledigt das Lesen der Daten auch schneller, als LR.
Dennoch: ich nutze es täglich und zumindest auf dem Mac läuft es besser, als auf meinem Windos-Rechner.
Vielen Dank für das update bezüglich neuer Grafikkarte & Lightroom 6/CC.
Ich finde es schade dass das Feature GPU Beschleunigung so stark gehyped wurde und am Ende fast nichts weiter als heiße Luft übrig bleibt.
Deine Aussage bezüglich das die GTX 980 (ca. 550€) das beste Preis Leistungsverhältnis bietet kann ich leider nicht unterschreiben.
Ein ideales Verhältnis bietet für diesen Verwendungszweck eher eine GTX970. Diese bietet auch 4GB Speicher (auch wenn davon nur 3.5GB die volle Bandbreite unterstützen) und kostet rund 330€.
Auch zum Zeitvertreibenden spielen am PC bietet diese auch noch ordentlich Leistung. Das gesparte Geld hätte man wieder für weiteren Kameraschnickschnack ausgeben können. ;-)
Gruß Michael
Es ist schon interessant wie extrem unterschiedlich die Performanceeinschätzungen zu LR6 ausfallen.
Auch wenn der Heise Artikel durchweg schlecht gemacht wird, leider(!) kann ich ihn nachvollziehen. Ich hoffe, dass es in den nächsten Tagen eine Erklärung von Adobe gibt, woran die Probleme liegen könnten.
Meine Ergebnisse sind leider sehr schlecht:
Import: LR5 5:34 LR6 5:20 (ich verbuche das mal unter Messungenauigkeit)
Standard Vorschau rendern: LR5 3:13, LR6 8:56
Export mit Schärfung: LR5 7:40 LR6 9:26
Obwohl die CPU bei LR6 _deutlich_ besser ausgelastet war, kam es zu diesen schlechten Ergebnissen.
ABER: Was ich ganz klar sagen muss, das Durchgehen der Bilder in der Bibliothek und auch im Fullscreen Modus ist sehr viel schneller als in LR5.
Mein System: Core i7 4770R, 16GB, Iris onChip
Es bleibt spannend.
Danke für diesen – wieder einmal – sehr interessanten Bericht. Ist interessant, dass ich auch im Bibliotheksmodul enorme Geschwindigkeitszuwächse verzeichnen konnte seit LR 6/CC. Ich war schon fast soweit, dass ich mir Photomechanics kaufe, das brauche ich jetzt nicht mehr, weil ich wieder flott durchnavigieren und bewerten kann.
lg, Helmut
Danke für den Bericht und das Video.
Immer wieder interessant durch die praxisnahme Art. Man kann so sein eigenes System einschätzen.
Hallo,
Jemand Erfahrung, ob Lightroom 6 auf einem MacBook Air rennt?
Ja, auf meinem 2013er MacBook Air läuft es gut, habe allerdings 8 GB RAM und den i7 Prozessor verbaut.
Müsste man nicht eigentlich die Exportzeit zur Verarbeitungszeit von PT Gui hinrechnen?
Ich weiß jetzt ja nicht, wie LR die Bilder zusammenstitcht. Aber vll. läuft hier intern eine Art „Export“.
Grüße!
Denke ich nicht, denn LR stitcht ja im RAW format. Natürlich ist es schwer, das 1:1 zu vergleichen – aber der Unterschied ist dermaßen eklatant, dass ich die Bilder in der Zeit noch 5x exportieren könnte.
Hallo Gunter,
wie immer danke für den tollen Bericht. Ich möchte ganz kurz auch mal meinen Senf dazu geben, weil ich im Moment genau in dem Thema bin.
Wir nutzen Lightroom CC an 3 Rechnern, wovon 3 I7 der 1. Generation sind. Je nachdem was man macht ist LR da wirklich schon nervig. Vor allem beim exportieren. Der 3. Rechner ist eine HP Workstation mit 2x Xenon 3,46 GHz, 48 GB RAM,3x SSD im Raid 0. Neu zugelegt haben wir uns vorige Woche eine Nvidia K5000 mit 4 GB. Monitor ist ein LG 21:9 Monitor 34″ 4K. (absolutes Sahneteil für den Preis von knapp 1000 EUR). Also Leute, da geht die Post ab, das ist ein Traum. Da macht LR wirklich Spaß. Auch exportieren geht rasend schnell.
Aber vorwiegend nutzen wir den Rechner zur Videobearbeitung mit Premiere CC.
Ein Beispiel: Rendern eines Filmes in MP4 Full HD auf dem I7 mit einer Quadro 4000 – 34 Minuten. Gleicher Job auf dem HP mit der K5000 – 5.20 Min. Das ist mal echt ein Quantensprung.
Allerdings möchte ich hier nicht erwähnen, was der ganze Spaß gekostet hat.….…
Hi Achim, ja, viel hilft viel. :-) Aber eigentlich sollten Softwareentwickler den Anspruch haben, dass man ihre Programme nicht nur mit brutaler Rechenpower bewältigen kann.
Welcher Monitor ist das?
lg 34um95
Hat der einen Wide-Gamut Farbraum?
natürlich nicht für den Kurs.
Läßt sich aber dennoch top kalibrieren.
Dann mußt Du schon den neuen von eizo nehmen.
Aber der liegt natürlich in ganz anderen preisdimensionen.
Moin Gunther,
ich habe mir die Konfiguration Deines Rechners angesehen. Kannst Du in etwa abschätzen, wieviel Einfluss die Grösse des verfügbaren RAMs auf die performance hat, wenn schon der Prozessor der Grafikkarte nicht immer genutzt wird? Ggf hängt das ja auch vom verwendeten OS ab und ob dieses die Verteilung auf mehrere Prozessoren und Grafikkarten unterstützt. Ich selbst nutze derzeit noch einen 5 Jahre alten iMac und bin erst kürzlich von Aperster auf Lightroom umgestiegen, wobei ich lange mit mir gekämpft habe, ob ich nicht besser capture one nehme. Adobe hat hat ja einen Ruf zu verteidigen, in Bezug auf schlecht performante Software, siehe nur den vermaledeiten Flash player…
Gruss, Ralf
Hallo Ralf, RAM ist auf jeden Fall wichtig. Wenn das schon am Limit ist, dann ächst alles andere auch.
«Die GTX 980 ist derzeit vom Preis/Leistungsverhältnis eigentlich das Beste, das man bekommen kann»
Die Aussage kann ich nicht so unterstreichen. Ja, man bekommt verdammt viel Leistung, muss dafür aber mind. 550 Euro für hinblättern. Die GTX 970 kostet 200 Euro weniger und ist vielleicht 10 % langsamer (abhängig von der Anwendung).
Und selbst das Diagramm auf der von dir verlinkten Seite zeigt ja bereits, dass es fernab der netten Preis/Leistungs-Linie ist, während die GTX 970 oder AMDs R9 290X doch deutlich näher dran liegen.
Naja, und wie sich zeigt, ist es vor allem für Lightroom sowieso kein Grund, sich eine bessere Grafikkarte anzuschaffen. Vielleicht liegt es daran, dass ich LR nicht unbedingt jeden Tag nutze, aber im Entwicklungsmodul hatte ich selbst bei LR5 nie wirklich das Gefühl, dass es besonders langsam ist. Eher nur dann, wenn die Einstellungen über mehrere Bilder hinweg synchronisiert werden müssen. Und da habe ich nicht den Eindruck, dass dies nun spürbar schneller geht.
Mag sein, allerdings würde ich aus Erfahrung bei den Adobe Anwendungen eher auf NVidia setzen, mit AMD Karten gabe es da doch in der Vergangenheit oft Kompatibilitätsprobleme.
Ging mir auch mehr um die Aussage in Bezug auf P/L, die ja sogar der verlinkten Seite widerspricht. (ich selbst kaufe seit vielen Jahren ohnehin nur NVidia)
Mit Leistung stimmt es (abgesehen von der Titan X), nur bei P/L wäre die GTX960 halt die beste Wahl bzw. bei mit mehr Leistung die GTX970. Natürlich auch eine Frage des Budgets.
Ja, da hast Du wohl recht. Bezüglich Lightroom, wäre vom P/L her, meine alte GrKa am besten gewesen :-)
Hallo Gunther,
ich arbeite hier mit einem 6 Jahre alten Macbook Pro (2,5 GHZ Intel Core Duo, 4 GG RAM, Nvidia GForce 9400 M 256MB). Der Speicher der Grafikkarte wird vom RAM benutzt.
Vor einem Jahr habe ich das Macbook Pro auf 8 GB RAM aufgerüstet und eine 256 GB SSD von Samsung eingebaut. An diesem hängt bei der Bildbearbeitung noch der 24″ Zoll von Dell. Zeitraffer mache ich nicht.
Mit dem LR 5.x lief alles zurfriedenstellend. Mit LR 6 hatte ich Latenzen im Entwicklungsmodul beim betätigen der Regler. Das war nervig.
Abhilfe: LR 6.x erkannte die Grafikkarte mit den OpenSource Treibern. Hier habe ich deaktiviert. Nun läuft es prima. :-)
PTGui läuft auch einwandfrei, wenn auch das Warten beim zusammen setzen der Panoramas etwas Zeit benötigt. Immerhin geht es aber noch so schnell (max. 20 Bilder), dass sich Kaffe kochen noch nicht lohnt.
Fazit: Auch mit älteren Systemen läuft es im nicht produktiven Bereich annehmbar und vertretbar. Bis jetzt gibt´s noch keinen Grund zum Wechseln des Systems.
Grüße,
Martin (Rgbg.)