Lightroom 6 und die Performance – Lohnt sich eine schnellere Grafikkarte?

30042015
LR6_grafik

Über mei­ne Ein­drü­cke von Ligh­t­room 6 habe ich euch ja schon aus­führ­lich berich­tet. Ein offe­ner Punkt war noch die Per­for­mance Fra­ge und ob sich die Inves­ti­ti­on in eine schnel­le­re Gra­fik­kar­te lohnt. Immer­hin hat Ado­be ja voll­mun­dig ver­spro­chen, durch die Aus­la­ge­rung von Berech­nungs­lo­gik in beschleu­nig­te Gra­fik­kar­ten, fan­tas­ti­sche Per­for­mance Vor­tei­le zu erzie­len. Ich habe nun eine sehr schnel­le Gra­fik­kar­te getes­tet und möch­te euch, wie ver­spro­chen, berichten.
Am Ende gibt es dann noch ein kur­zes Video, wo ich Ligh­t­room mal einen klei­nen Wett­lauf machen lasse…

Vor dem Umbau hat­te ich in mei­nem Rech­ner eine Geforce 660 Ti – eine Kar­te von Anfang 2013, die nach 2 Jah­ren sicher­lich auch noch nicht zum ganz alten Eisen gehört. Aller­dings hat sich in den letz­ten 2 Jah­ren aber doch etwas getan, und so soll die Geforce GTX 980, die ich mir nun bestellt habe, mehr als dop­pelt so schnell sein, zumin­dest laut Gegen­über­stel­lun­gen im Netz. Die GTX 980 ist schon rela­tiv «High End», vom Preis/Leistungsverhältnis her, wäre die GTX 970 wohl bes­ser gewesen.

2015-04-30 11_06_54-Lightroom 5 vs. 6

Ich habe sie also ein­ge­baut und zunächst ein­mal den Test wie­der­holt, den ich neu­lich schon gemacht habe: Bil­der expor­tiert. Einer der abso­lu­ten Fla­schen­häl­se in Ligh­t­room, das hat­te ich euch ja schon im Video gezeigt. Und was ich schon ver­mu­tet hat­te, hat sich bestä­tigt: an den Zei­ten hat sich nichts geändert.

Kein Wun­der, denn mitt­ler­wei­le hat Ado­be auch Details dazu preis­ge­ge­ben, für wel­che Funk­tio­nen Ligh­t­room 6 über­haupt nur die Gra­fik­kar­ten­un­ter­stüt­zung einsetzt:

Hierfür nutzt Lightroom 6 / CC Grafikkartenbeschleunigung:

  • näm­lich nur für die Echt­zeit­dar­stel­lung der meis­ten (Aus­nah­men s.u.) Ent­wick­lungs­ein­stel­lun­gen im Entwickeln-Modul

Und ja, das geht auch bei mir jetzt gefühlt flot­ter mit der neu­en Gra­fik­kar­te. Aber ehr­lich gesagt ist das schwer zu ver­glei­chen, des­we­gen eben «gefühlt». Ansich war die Per­for­mance in dem Bereich bei mir auch schon vor­her okay. Ein Bewe­gen der Reg­ler löst mit der GTX980 Ände­run­gen am Bild so gut wie in Echt­zeit aus. Aller­dings nur, wenn Ligh­t­room nicht im Hin­ter­grund Bil­der expor­tiert, HDR’s zusam­men­setzt oder ein Pan­ora­ma berech­net! Dann näm­lich, wird alles rela­tiv zäh, da die Pro­zes­so­ren voll aus­ge­las­tet sind.

Folgendes profitiert derzeit in Lightroom 6 / CC nicht von einer schnellen Grafikkarte:

  • Die Biblio­thek und alle ande­ren Modu­le – außer Entwickeln
  • Die Schnell­ent­wick­lung in der Bibliothek
  • Der Export (!)
  • Die HDR Funktion
  • Die Pan­ora­ma Funk­ti­on (hät­te mich auch gewundert!)
  • Der Kor­rek­tur-Pin­sel und die Bereichs­re­pa­ra­tur im Ent­wi­ckeln-Modul (pro­biert es mal aus, der ist nun schnarch­lahm, wenn die Gra­fik­kar­ten­be­schleu­ni­gung ein­ge­schal­tet ist)
  • Der zwei­te Bild­schirm, falls ihr Ligh­t­room im Zwei­schirm-Betrieb fahrt

So, da haben wir es. Die Gra­fik­kar­te beschleu­nigt also nur die direk­te Aus­wir­kung der Reg­ler auf das Bild im Ent­wi­ckeln Modul.

Hochauflösende Monitore

Und Ado­be hat mitt­ler­wei­le auch erklärt, war­um sie das The­ma über­haupt ange­hen muss­ten: immer mehr Kun­den set­zen mitt­ler­wei­le hoch­auf­lö­sen­de Moni­to­re ein. Wäh­rend ein nor­ma­ler Full-HD-Bild­schirm 2 Mega­pi­xel dar­stellt, sind es bei einem 4K-Dis­play schon 8MP und bei 5K gan­ze 15 MP. Die Anzahl der dar­zu­stel­len­den Pixel wächst also qua­dra­tisch und ich gehe davon aus, dass die alte Ansteue­rung hier mas­siv an ihre Gren­zen gesto­ßen ist.

Ado­be stellt klar, dass die Gra­fik­kar­ten-Beschleu­ni­gung umso mehr Effekt hat, je grö­ßer die Auf­lö­sung des Bild­schirms ist! Mit einem Full HD-Bild­schirm wer­det ihr also kaum einen Unter­schied mer­ken, mit einem 4K Bild­schirm hin­ge­gen schon.

Man­gels eines Sol­chen, kann ich euch dazu lei­der der­zeit kei­ne Pra­xis-Erfah­run­gen lie­fern, aber es klingt plausibel.

Ado­be erklärt aber auch, dass auch die Gra­fik­kar­te kei­ne Wun­der­waf­fe sei und eben nur bestimm­te Auf­ga­ben, näm­lich sol­che, die sich gut par­al­le­li­sie­ren las­sen, hier sinn­voll aus­ge­la­gert wer­den kön­nen. Wei­ter­hin gibt es einen gewis­sen «Over­head» dadurch, dass die Daten ja zunächst vom Haupt­spei­cher in die Gra­fik­kar­te gela­den wer­den müs­sen, bevor sie dort ver­ar­bei­tet wer­den kön­nen. Das merkt man dann, wenn unter­stütz­te Werk­zeu­ge mit nicht Unter­stütz­ten (Pin­sel, Bereichs­re­pa­ra­tur) interagieren.

Als klei­ne Hoff­nung spricht Ado­be davon, dass die der­zei­ti­ge Umset­zung in Ligh­t­room 6 nur der Anfang sei. Es steht also zu hof­fen, dass mit wach­sen­der Erfah­rung in die­ser Art der Beschleu­ni­gung auch wei­te­re Funk­tio­nen ent­spre­chend beschleu­nigt werden.

Meine Einschätzung

«Gra­fik­kar­ten­be­schleu­ni­gung» ist schon fast zu einem Mar­ke­ting-Begriff gewor­den. Dass selbst bei einer ange­prie­se­nen sol­chen Unter­stüt­zung kei­ne Wun­der zu erwar­ten sind, zeigt das aktu­el­le Ligh­t­room 6. Dass es auch anders geht, zeigt z.B. die belieb­te Soft­ware zur Pan­ora­ma­be­rech­nung PTGui. Die dort vor eini­ger Zeit ein­ge­führ­te Unter­stüt­zung von Gra­fik­pro­zes­so­ren hat zu einer enor­men Beschleu­ni­gung beim Zusam­men­set­zen von Pan­ora­men geführt. Davon kann Ado­be der­zeit nur träu­men. Aber der Knack­punkt ist: schon ohne die Gra­fik­kar­ten-Unter­stüt­zung war PTGui bereits deut­lich schnel­ler als die Ado­bes Pan­ora­ma Funk­ti­on. Und hier liegt mei­nes Erach­tens nach ein Teil des Pro­blems, das Ligh­t­room schon lan­ge mit sich her­um trägt.

Anstatt sich nun dar­auf zu stür­zen, wer­be­wirk­sam die Funk­tio­na­li­tä­ten eines Moduls nach dem ande­ren in die Gra­fik­kar­te aus­zu­la­gern, könn­te Ado­be sich auch mal den Kern-Pro­gramm­code vor­neh­men. Schlech­te Pro­gram­mie­rung ist näm­lich die größ­te und häu­figs­te Ursa­che für Per­for­mance Engpässe.

Dazu habe ich ein kur­zes Video für euch gemacht, in dem ich Ligh­t­room mal zum «Wett­ren­nen» her­aus­ge­for­dert habe. Aber seht selbst…

Das Wettrennen – Video

Ich muss es noch ein­mal wie­der­ho­len: auch, wenn das jetzt dras­tisch aus­sieht: es schmä­lert nichts dar­an, dass Ligh­t­room ein groß­ar­ti­ges Tool ist! Wir jam­mern hier auf hohem Niveau. Und mei­ner Mei­nung nach ist LR6/CC nicht lang­sa­mer, als die Vor­ver­si­on. Den gera­de erschie­ne­ne Ein­schät­zung von Hei­se Pho­to zum The­ma Ligh­t­room Per­for­mance kann ich, bei allem Respekt für den Hei­se Ver­lag, nicht ganz nachvollziehen.

Meine Empfehlung

Soll­tet ihr euch nun eine neue Gra­fik­kar­te kaufen?

Das hängt davon ab. Fol­gen­de Fra­gen soll­tet ihr euch stellen:

  • Lohnt es sich noch, euren Rech­ner auf­zu­rüs­ten und ist es über­haupt mög­lich? Aus mei­ner Sicht macht es bei Rech­nern, die älter als 4 Jah­re sind, kei­nen Sinn eine moder­ne Gra­fik­kar­te ein­zu­set­zen. Hier wärt ihr mit mehr Haupt­spei­cher und schnel­len SSDs sicher­lich bes­ser bedient.
  • Habt ihr einen Moni­tor mit höhe­rer Auf­lö­sung, als Full HD oder plant ihr, einen sol­chen zu kau­fen? In die­sem Fall kann eine neue Gra­fik­kar­te etwas brin­gen und wird auch bei Ligh­t­room den größ­ten Effekt ausspielen.
  • Merkt ihr, wenn eure Rech­ner sonst im Leer­lauf ist, beim Betä­ti­gen der Reg­ler im Ent­wi­ckeln-Modul gro­ße Laten­zen? Dann könn­te eine schnel­le­re, beschleu­nig­te Gra­fik­kar­te helfen.

Ob die Gra­fik­kar­ten­be­schleu­ni­gung bei eurem Rech­ner von Ligh­t­room der­zeit über­haupt genutzt wird, seht ihr übri­gens in Ligh­t­room unter «Vor­ein­stel­lun­gen -> Leistung».

2015-04-30 11_52_27-Voreinstellungen

Wenn ihr nicht wisst, wel­che Gra­fik­kar­te ihr habt, fin­det ihr Infos dar­über unter «Sys­tem­in­for­ma­tio­nen»:

2015-04-30 11_54_22-Systeminformationen

Ver­gesst nicht, dass die Gra­fik­kar­te nur eine Kom­po­nen­te in einem Rech­ner ist. Bevor ihr hier inves­tiert, soll­tet ihr auf jeden Fall vor­her in Haupt­spei­cher und schnel­le SSDs inves­tiert haben, die brin­gen näm­lich einen deut­lich grö­ße­ren Effekt bezüg­lich der Performance!

Mit dem von mir vor 2 Jah­ren zusam­men­ge­stell­ten Rech­ner kann ich, da ich die Kom­po­nen­ten damals sorg­fäl­tig aus­ge­wählt habe, heu­te immer noch ohne Per­for­mance-Ein­bu­ßen arbei­ten und das auch bei anspruchs­vol­ler Nut­zung. Selbst, wenn ich gleich­zei­tig Sequen­zen mit LRTi­mel­ap­se ren­de­re und ein Video mit Pre­mie­re Pro aus­ge­be, kann ich noch flüs­sig arbeiten.

Die neue Gra­fik­kar­te hat sich der­zeit vom Preis-/Leis­tungs­ver­hält­nis für mich sicher­lich nicht unbe­dingt gelohnt – aber viel­leicht steht dann ja doch irgend­wann mal ein 4K Moni­tor an… :-)

Hat Dir der Artikel gefallen?

Dann melde Dich doch bitte zu meinem kostenlosen Newsletter an. Dann bekommst Du eine Nachricht bei neuen Artikeln und Du wirst auch exklusiv als erstes über neue Workshops und Reisen informiert! Außerdem gibt es dort auch immer wieder Hintergrund-Infos, die so nicht im Blog stehen.

Natürlich freue ich mich auch sehr, wenn Du mir bei YouTube, Instagram und Facebook folgst.

Alle Inhalte © Gunther Wegner

*) Mit einem Stern gekennzeichnete Links sind externe Partner-Links. Ihr unterstützt mich, wenn ihr darüber bestellt. Alternativ könnt ihr auch über folgende Direktlinks in die Shops wechseln:
Amazon.de, Amazon.at, Amazon.com, Foto Koch, Augenblicke-Eingefangen, camforpro.com.
Über meine Zusammenarbeit mit externen Partnern habe ich hier ausführlich geschrieben. Danke!

Werbung

Wir freuen uns über Deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

60 Kommentare bisher


  1. Hal­lo lie­be Fotofreunde,

    Ich befas­se mich auch schon län­ger mit Foto­gra­fie und Color Manage­ment und hier ist Nvi­dia Markt­füh­rend. Es gibt bestimmt Gra­fik­kar­ten die 10bit dar­stel­len kön­nen. z.B. GTX 970.…wurde auch bei Pixel-Com­pu­ter ver­baut. Hat­te auch schon ein Gespräch in Würz­burg bei einer Aus­stel­lung mit Ihm persönlich.
    Vor­aus­set­zung ist natürlich:
    a) rich­ti­ge Gra­fik­kar­te z.B. alle Quadros
    b) rich­ti­ger Anschluss zum Moni­tor Dis­play Port
    c) ent­spre­chen­der Moni­tor der 10 bit fähig ist

    Die Gra­fik­kar­te wird immer mehr zum für Anwen­dun­gen wich­ti­ger. Natür­lich kos­tet soviel Qua­li­tät dann auch sei­nen Preis.

    Für alle inter­es­sier­te habe ich eine sehr gute Adres­se im Web, wor­über Ihr sehr viel über Per­for­mance von PC und Anwen­dun­gen lesen könnt.
    Gera­de über Ado­be – Produkte.…aber schaut selbst und macht euch schlau:

    Ich hof­fe hier­mit eini­gen zu Helfen
    und ver­blei­be mit Grüßen
    Edwin

  2. Christine Brodda 26. September 2016, 13:10   »

    Nvi­da unter­stützt kei­ne 10 bit.
    Z.B. Pixel­com­pu­ter bau­en dafür eine Fire Pro von der Kon­kur­renz ein. Auch auf Nach­fra­ge bei ande­ren Her­stel­len ein­schließ­lich Eizo und Benq bekam ich immer die Aus­kunft 10 Bit Farbd­a­stel­lung ist mit Nvi­da nicht mög­lich weil Nvi­da es zwar kann aber nicht freischaltet.

    • Rene Mosler 2. Oktober 2016, 15:06   »

      es ist­so lus­tig das jeder zwei­te zu 10bit etwas ande­res meint. kann mal jmd wirk­lich bestä­ti­gen das 10bit mit nicht fire pro oder quat­tro kar­ten funktioniert ? 

      es kann ja nicht sein, dass sovie­le leu­te sich irren.
      und ich kann mir schwer vor­stel­len das nur noch eine pro kar­te ver­kauft wer­den wür­de wenn es da nicht einen bonus zu den con­su­mer kar­ten gäbe.

      ich wer­de es in ein paar tagen mit einer rx480 am eizo cs240 tes­ten und wer­de berichten.

      vg

      • Mirko Mühlisch 13. Oktober 2016, 17:19   »

        Hab seit paar Tagen einen 4k Moni­tor. 10 bit geht mit NVIDIA. Ich konn­te es zumin­dest in der Sys­tem steue­rung von NVIDIA ein­stel­len. Kar­te zur Zeit eine GTX780

  3. Jürgen 5. August 2016, 09:40   »

    Sor­ry, sicher pas­siert es nicht von sel­ber neue Kame­ra­fil­ter und Pro­fi­le zu ent­wi­ckeln. Aber sooo rie­sig ist der Auf­wand im Ver­gleich zum Gesamt­pa­ket nun auch nicht. Und vor allem ist Ligh­t­room wirk­lich alles ande­re als «schnell» programmiert.
    Man sehe sich nur ein altes View NX an, wie schnell das Bil­der öff­nen kann, im Ver­gleich zu den ver­schie­de­nen LR Versionen.
    Und dann kommt noch dazu:
    Fast alles was Ado­be ent­wi­ckelt wird mehr­fach verwertet:
    LR, Pho­to­shop CC, Pho­to­shop elements.
    Das macht zwar den Pro­gram­mier­auf­wand nicht klei­ner, aber die Ein­nah­men größer.
    Gruß
    Jürgen

  4. WilhelmX 3. August 2016, 23:40   »

    Hal­lo Gunther,
    guter Bei­trag zu Lig­th­room 6, das mei­ner Mei­nung nach intern mit einer spe­zi­ell von Ado­be pro­g­ra­mier­ten Trans­mis­si­ons­rie­men-Ein­heit arbeitet… :-)
    Da Du von Soft­ware­ent­wick­lung etwas ver­stehst weist Du sicher auch, das man heu­te am liebs­ten alle Pro­gram­me mit einer Pragrammiersprache(z.B.Java), für alle Betriebs­sys­te­me, pro­gram­mie­ren möch­te, was nie rich­tig funk­tio­nie­ren kann! Das wis­sen aber lei­der nur Weni­ge. Von Assem­bler-Pro­gram­mie­rung hat heu­te auch kei­ner mehr ein Ahnung. Heu­te möch­te eine Soft­ware­fir­ma wie z.B. Ado­be so wenig wie mög­lich Ent­wick­ler beschäf­ti­gen mit mög­lich klei­nem Gehalt und mög­lichst gerin­gen Kos­ten für die Ent­wick­lung. Auf der ande­ren Sei­te wer­den Unmen­gen Geld ins Mar­ke­ting eines beschix­xe­nen Pro­duk­tes gesteckt statt end­lich mal ein brauch­ba­res Pro­dukt zu ent­wi­ckeln! So sieht in etwa die heu­ti­ge Idio­tie in der Soft­ware­ent­wick­lung aus, ich weis wovon ich rede.
    Ich habe z.B. einen MacPro mit 8 Ker­nen und 4 GPUs und sit­ze vor mei­nem Rech­ner und war­te und war­te und warte.…
    Mit mei­ner neu­en Fuji und den RAF-Datei­en ist es noch schlim­mer als mit Sony-RAW. Ein­fach nur noch grau­sam die­se unfä­hi­gen Pro­gram­mie­rer. Ich hat­te Ado­be mal eine gesal­ze­ne Email geschrie­ben, habe aber bis heu­te nichts von die­sen Ado­be-Genies gehört… :-)

    War­um pro­gram­mierst Du nicht ein ein­fa­ches «Ligh­t­room»? Wenn man die Kon­kur­renz von Lig­th­room so anschaut, dann könn­test Du Mil­lio­nen damit ver­die­nen!!!! Ich bin mir da mehr als Sicher. Und in den nächs­ten Jah­ren wird Ado­be und Ande­re, ihre lieb­ge­won­ne­ne und gewinn­ma­xi­mie­ren­de «Geschäfts­phi­lo­so­phie» sicher nicht ändern, es kos­tet ein­fach zu viel…

    Iri­di­ent Deve­lo­per hat eine gute Pic­tu­re-Engi­ne aber eine seit 12 Jah­ren nicht ver­bes­ser­te Benut­zer­ober­flä­che. Man fühlt sich in die 90er ver­setzt, wenn man die­se Pro­gram benutzt… echt peinlich.
    Ich und tau­sen­de Ande­re wür­de für ein gut pro­gram­mier­tes Pro­gramm im Stie­le von Lig­th­room min­des­ten 200–300.- bezah­len und jähr­lich 50.- ‑100.- für Updates etc, die­ses Pro­gramm gibt es aber noch nicht… ??? im Jahr 2016…!

    Sor­ry, muß­te daß mal los wer­den, es ist wirk­lich frus­trie­rend ange­sichts die­ser Unfä­hi­gen «Pro­gramm­de­si­gner» und ande­rer Software-«Genies».

    Vie­le Grü­ße und mach wei­ter so. :-)

    Gruß Wil­li

    • Du soll­test den Auf­wand nicht unter­schät­zen, der die Ent­wick­lung und War­tung eines RAW Kon­ver­ters mit sich bringt. Jede neue Kame­ra will unter­stützt wer­den, für jedes objek­tiv wol­len Pro­fi­le erstellt wer­den. Und dann möch­test du noch, dass das in Assem­bler für jedes Betriebs­sys­tem sepa­rat ent­wi­ckelt wird. Da unter­schätzt du die Auf­ga­be aber erheb­lich. Selbst für ein gro­ßes Team, wie Ado­be es hat, ist das schwie­rig, allei­ne nicht machbar.

      • PS: Dan­ke aber trotz­dem für Dein Ver­trau­en in mich ;-)

        • WilhelmX 5. August 2016, 12:29   »

          Hal­lo Gunther,
          Du hast natür­lich Recht, ein RAW-Kon­ver­ter für ver­schie­de­ne Kame­ras plus Pro­fi­le ist nicht ein­fach, das ist schon Ver­ständ­lich. Als ich noch pro­gram­mier­te, und die Grund­struk­tur fest­stand und die Funk­tio­nen einen Pro­gram­mes funk­tio­nier­ten, dann wur­den die zeit­kri­ti­schen Pro­gramm­tei­le noch in Assem­bler pro­gram­miert und die Per­for­macestei­ge­rung des Pro­gram­mes stan­den im Vordergrund.

          Heu­te gibt es sicher gute Pro­gram­mier­spra­chen die schnell und rela­tiv ein­fach sind. Es soll­ten solch kom­pli­zier­te Pro­gram­me aber spe­zi­ell auf und mit dem jewei­li­gen Betriebs­sys­tem pro­gram­miert wer­den. Mac hat ja z.B. eine eige­ne Pro­gram­mier­spra­che (Swift) spe­zi­ell für ihr Sys­tem mit Open­CL, OpenGL, Grand Cen­traL Dis­path und wie die alle hei­ßen. Auf die­se Art pro­gram­miert wür­de Ligh­t­room sicher
          mit Tur­bo­ef­fekt arbeiten… :-) 

          Naja, war­ten wir halt noch 10 Jahr, viel­leicht gibt es dann einen 200 Ker­ne-Rech­ner mit 40 GPUs der inner­halb einer 1/10 sec., in Ligh­t­room, von einem Bild zum ande­ren wech­selt und in «Echt­zeit» zoo­men kann.… :-)

          Habe übri­gens bei Kata­log­ein­stel­lun­gen und Datei­hand­ha­bung die Vor­schau­grö­ße auf 1440 ein­ge­stellt und die Qua­li­tät auf mit­tel. Irgend­wie geht das Zoo­men auf 100% jetzt schneller…
          Ich weis ja nicht wie Ligh­t­room intern die Daten ver­ar­bei­tet aber das 100% Zoom- Jpg wird wohl dadurch schnel­ler berech­net, was Ligh­t­room bei jedem Zoo­men macht…?

          Das gehyp­te Affi­ni­ty-Pho­to das Du viel­leicht kennst, wur­de spe­zi­ell auf Mac pro­gram­miert und funk­tio­nier­te auch sehr schnell, lei­der funk­tio­niert es mit Fuji-RAF nicht und stürtz ab… :-) ist es nicht ein schwe­res Kreuz, das man als Hob­by­fo­to­graf tra­gen muß..? :-)

          Vie­le Grü­ße und Dan­ke füe Dein Mitgefühl. :-)

  5. Hal­lo,

    ich habe an mein neu­es Note­book (Asus N550JK) mit 4K Bild­schirm einen 4K Moni­tor angeschlossen

    Pro­zes­sor: i7 – 4710HQ 2,5 GHz
    RAM: 16 GB
    Gra­Ka: GeForce GTX 850M

    Zuvor hat­te ich ein Note­book ohne 4K und einen nor­ma­len HD Bild­schirm. Seit dem Umstieg auf 4K ist Ligh­t­room 5.7. spür­bar lang­sa­mer gewor­den. Vor allem das Frei­stel­len ist eine Qual gewor­den. Ich woll­te eigent­lich mit dem neu­en Note­book Ligh­t­room flüs­si­ger lau­fen las­sen, lei­der ist nun das Gegen­ten­teil der Fall :(. Ist mei­ne Hard­ware zu schlecht für die 4K Bearbeitung?
    Ich woll­te zudem mal schau­en ob Ligh­t­room mei­ne Gra­fik­kar­ten­be­schleu­ni­gung ver­wen­det, jedoch ist bei mir unter «Vor­ein­stel­lun­gen» der Rei­ter «Leis­tung» gar nicht vor­han­den!? Was kann das bedeuten?
    Vie­len Dank schon mal.
    Grüße

    • Für die Gra­fik­be­schleu­ni­gung brauchst Du min­des­tens Ligh­t­room 6. Und gera­de bei 4K hift die Gra­fik­be­schleu­ni­gung. Lauf Ado­be waren die neu­en 4K Bild­schir­me der Grund, die Gra­fik­be­schleu­ni­gung in LR6/CC ein­zu­bau­en, da die alte Ver­ar­bei­tung da zu lang­sam ist. Immer­hin muss Ligh­t­room gegen­über Full HD 4x sovie­le Anzei­ge­da­ten verarbeiten.
      Also: Upgrade auf LR6/CC und dann noch­mal checken.

  6. Pierre Blattner 17. Januar 2016, 11:05   »

    Bei mir stellt LR sobald es etwas zu arbei­ten gibt, wie das Auf­la­den auf LR-mobi­le, den PC ab. Kann das mit der Gra­fik­kar­te einen Zusam­men­hang haben? Mei­ne hat «nur» 2GB.

    • Wie, schal­tet den PC ab? Stürzt ab? Schal­te doch mal die Nut­zung der Gra­fik-Beschleu­ni­gung in den Ligh­t­room Ein­stel­lun­gen ab.

      • Pierre Blattner 17. Januar 2016, 11:26   »

        Ent­we­der es ist alles blo­ckiert, weder Maus noch was ande­res kann bewegt wer­den. Somit gibt’s nur eins Strom abstel­len und neu auf­fah­ren, oder er «restar­tet» von selbst neu.
        Gut ich hab jetzt mal die Gra­fik­kar­ten Unter­stüt­zung aus­ge­schal­tet. Mal schau­en wie er sich jetzt ver­hält. Danke.

  7. Anmer­kung noch:
    Die R7 250 lief bei mir mit Win­dows 8.1 und seit Erschei­nen des dubio­sen Daten­sam­mel­ob­jekts Win­dows 10
    auch damit. Aktu­el­le Rade­on Trei­ber und funktioniert.
    Ein­zi­ge Einschränkung:
    Öfter mal wird beim Gera­de­rich­ten die Frei­stel­lung «ver­ges­sen». Das Pro­blem hab ich aber an einem ande­ren PC auch und fin­det sich auch mit ande­ren Gra­fik­kar­ten im Netz.
    Gruß

  8. Hal­lo Gunther,
    da ich mitt­ler­wei­le auch mit Ligh­t­room 6 an einem Eizo CX271 arbei­te und mei­ne der­zei­ti­ge Gra­fik­kar­te den Geist auf­ge­ge­ben hat, woll­te ich mir die von dir emp­foh­le­ne GTX 970 bestel­len, habe aber fest­ge­stellt, dass die­se Kar­te kei­nen Dis­play Port-Anschluss hat. Kann ich ohne Nach­tei­le auch den vor­han­de­nen HDMI-Anschluss nut­zen oder wel­che Kar­te könn­test du mir statt­des­sen emp­feh­len (etwa die Preis­la­ge der GTX 970)? Dan­ke für die Info!
    Grüße
    Manfred

    • Hal­lo Manfred,

      dann schau mal nach einem ande­ren Her­stel­ler der GTX 970 – eigent­lich haben die alle einen Dis­play­po­rt, da musst Du ein Exo­ten-Lay­out erwischt haben. 

      Wei­ter: Die GTX hat bereits HDMI 2.0 (und kann somit Auf­lö­sun­gen höher als FUll-HD bedie­nen). Die Fra­ge bleibt, ob das auch der HDMI-Ein­gang des EIZO kann (Worst-Case wäre, dass der nur HDMI 1.4 kann. Wie mein «tol­ler» Dell, wes­we­gen ich nur DP nut­zen kann). Ich hat­te mal auf der Webseite
      von Eizo nach­ge­schaut aber die haben schein­bar bei den SPECS ein fal­sches Modell hin­ter­legt. Schau mal nach, wenn ja, dann hät­test Du die Qual der Wahl. :-) 

      Aber: wie gesagt, das rich­ti­ge Modell der GTX 970 aus­ge­wählt – dann hät­test Du DP 1.2 und HDMI 2.0 dabei.

      • Hal­lo Gunther,
        vie­len Dank für die rasche Ant­wort. Habe gera­de auf digi​tal​ka​me​ra​.de gele­sen, dass der Eizo CX271 die HDMI-Ver­si­on 1.3 hat. Da ich mich mit Gra­fik­kar­ten nicht aus­ken­ne, weiß ich halt nicht, ob die Geforce GTX970 für mich eine Fehl­in­ves­ti­ti­on ist. Wel­che Kar­te könn­test du mir emp­feh­len, um bei Ligh­t­room 6 nichts zu verpassen?
        Grüße
        Manfred

        • Meinst Du wirk­lich Gun­ther? … oder mich, Michael.

        • Die Wahl der «rich­ti­gen» Gra­fik­kar­te ist der­zeit recht schwer, wie ich fin­de. Rade­on hat der­zeit, was Auf­lö­sung jen­seits von Full-HD anbe­langt, die Nase vor­ne. Wobei Nvi­dia i.d. Regel spar­sa­mer ist als die Rade­on Pen­dants. Wenn man war­ten kann (so wie ich), dann soll­te man abwar­ten was bei Nvi­dia in den nächs­ten Wochen pas­siert (die hat­ten die­se Woche eine Vor­stel­lung einer neu­en GRAFKA im klei­nen Fach­kreis), man geht davon aus, dass es vor der neu­en Pas­cal-Gene­ra­ti­on (2016) ein inter­es­san­tes Zwi­schen­mo­dell geben könnte. 

          Aber: auf­grund des Defek­tes der alten Kar­te kannst Du wahr­schein­lich nicht war­ten. Ergo: ich wür­de mir im Web bei einem Hard­ware­ver­sen­der (alter​na​te​.de, Arlt​.de oder Cyber­port) ein­fach mal die aktu­el­len Model­le anschau­en. Dabei dar­auf ach­ten, das die Model­le mei­nes Begeh­res HDMI 2.0 und Dis­play­po­rt bie­ten. Dann wür­de ich die Lis­te der Kan­di­da­ten mit den Test­be­wer­tun­gen (z.B. chip​.de, pc​-welt​.de usw.) abglei­chen – wich­tig wäre mir dabei vor allem die Laut­heit der Kar­te und dann die Ener­gie­ef­fi­zi­enz. Übri­gens, kann der Vor­gän­ger des der­zei­tig aktu­ells­ten Rade­on-Chips preis­lich durch­aus inter­es­sant sein => mein Tipp, sich anschau­en, wel­che der Kar­ten eben­falls HDMI 2.0 und DP anbietet …

    • Hi,

      da die Gra­fik­kar­ten­per­for­mance bis heu­te eher unbe­deu­tend ist, habe ich bis jetzt immer die schnells­ten Gra­fik­kar­ten mit Rade­on Chip­satz verwendet.
      HDMI und DVI schaf­fen pro­blem­los die Auf­loe­sung des
      CX271 mit 2560x1440. Selbst hat­te ich an einer Rade­on R7 250 zwei CX270 ( Vor­gän­ger ohne LED Hin­ter­grund­be­leuch­tung ) betrie­ben. Aktu­ell sind es zwei Rade­on R2 250, zwei CX270 und ein EV2736W.
      Die Per­fo­mance­tests bis­her sind recht durchwachsen.
      http://​www​.hei​se​.de/​f​o​t​o​/​a​r​t​i​k​e​l​/​N​a​c​h​g​e​m​e​s​s​e​n​-​G​P​U​-​B​e​s​c​h​l​e​u​n​i​g​u​n​g​-​i​n​-​L​i​g​h​t​r​o​o​m​-​6​-​u​n​d​-​L​i​g​h​t​r​o​o​m​-​C​C​-​2​6​2​6​7​7​0​.​h​tml
      Bis auf wei­te­res wür­de ich eine lei­se Gra­fik­kar­te ( gro­ßer pas­si­ver Küh­ler ohne Pro­pel­ler ) kau­fen und soll­te es mal ein Update mit ech­ter Leis­tungs­stei­ge­rung bei Ver­wen­dung von schnel­len Gra­fik­kar­ten geben, kann man immer noch eine neue wirk­lich opti­mier­te Kar­te kaufen.
      Bis dahin wer­den die schnel­len Kar­ten schnel­ler und wei­ter bil­li­ger. Die 100 Euro die man in die «Über­gangs­lö­sung» inves­tiert hat sind dann leicht wie­der eingespart.

      Gruß
      Jürgen

  9. Hal­lo
    Ligh­t­room ver­wen­det bei mir immer die Intel HD Gra­phics 5500, anstel­le der GeForce Gra­fik­kar­te (jeden­falls steht das so in den Vor­ein­stel­lun­gen). Wie kann ich das ändern? In der NVi­dia-Sys­tem­steue­rung, wo ich für jedes Pro­gramm ein­stel­len kann, wel­che Gra­fik ver­wen­det wer­den soll lässt sich Ligh­t­room nicht aus­wäh­len (nur Ligh­t­room CEF-Hel­per, aber das scheint nichts zu bringen).

  10. Mayerosch, Udo 13. Juli 2015, 10:22   »

    Hal­lo Gunther,
    mei­ne Fra­ge, ich möch­te mir Ligh­t­room 6 kau­fen (mein «erstes»)die Fra­ge ist nur ob mein Rech­ner damit klar kommt, ca.5 Jah­re alt. Läuft mit Wind.7, 4GB Arbeits­sp. zum ver­gleich Gimp 2.8 und Nikon View NX2 macht für mei­ne Nut­zung kei­ne Pro­ble­me läuft…kein Ruckeln.

    • Hal­lo Udo, lade Dir doch mal die Test­ver­si­on von Ado­be her­un­ter und pro­bie­re es selbst. Funk­tio­nie­ren wird es schon, ob es für Dich schnell genug ist, kannst ja nur Du entscheiden!

  11. Bernd Gantert 9. Juni 2015, 22:17   »

    Hal­lo Gunther,

    ich arbei­te mit LR 5.7.1. Seit dem Wech­sel von der D300 auf die D750 fällt mir auf, dass LR die Kame­ra­pro­fi­le zu Nikon Kame­ras (D2x…) unter «Kali­brie­rung» nicht mehr dar­stellt, außer den Ado­be Pro­fi­len. Abge­spei­chert sind – in einem sepa­ra­ten Ord­ner, neben den Ado­be-Pro­fi­len, Kame­ra­pro­fi­le vie­ler Her­stel­ler, z. B. auch der D750.
    Wird da von der Kame­ra nichts an LR gelie­fert? Bei Bil­dern mei­ner D300 wer­den, auch unter mei­ner LR-Ver­si­on, die D2x-Pro­fi­le dargestellt.

    Ist dies bei dir eben­so gewe­sen und unte LR6 anders?

    Unter Came­ra Raw9 sind die­sel­ben Objek­tiv- und Kame­ra­pro­fi­le abge­spei­chert wie unter LR 5. Bin ich nur zu blöd die­se zu laden? Auch wenn ich schon beob­ach­tet habe, dass die Raw-Datei­en sich beim Öff­nen teil­wei­se in der Farb­ge­bung ändern (auto­ma­ti­sche Anpas­sung durch ein hin­ter­leg­tes Pro­fil?) . Da die ange­ge­be­nen Kame­ra­pro­fi­le so bezeich­net sind wie im Ado­be-Ord­ner abge­legt, somit der Prä­fix D750 fehlt glau­be ich nicht an eine auto­ma­ti­sche Anpassung.

    Wür­dest du mir hier­zu dei­ne Erfah­run­gen mitteilen?

    Mit freund­li­chen Grüßen 

    Bernd Gan­tert

  12. Michael 1. Juni 2015, 23:44   »

    Salu­te,

    bis zu Ligh­t­room 5.7 muss­te ich mir über Geschwin­dig­keit nicht wirk­lich sor­gen machen – alles war im Bereich des «sehr» erträg­li­chen. Mit Ligh­t­room 6 kann ich die Kri­tik zum ers­ten Mal aus eige­ner Erfah­rung nach­voll­zie­hen. Dabei nut­ze ich der­zeit noch nicht mal das Ent­wi­ckeln-Modul, son­dern bewe­ge mich nur in der Biblio­thek und der Gesichtserkennung. 

    Dabei stürzt Ligh­t­room 6 sogar häu­fig ab bzw. gibt kei­ne Rück­mel­dun­gen mehr, wenn man z.B. zu vie­le / oder zu lan­ge an den Gesich­ter-Tags arbei­tet. Häu­fig kann man sogar beob­ach­ten, dass wenn man wei­te­re Gesich­ter manu­ell bekann­ten Namen zuweist, Ligh­t­room mit dem Addie­ren nicht mehr hin­ter­her kommt. 

    Kurz­um: ich hof­fe mal auf bal­di­ge Updates.

    Zum Rech­ner: Pro­gramm und Bil­der lie­gen auf getrenn­ten 1 TB SSD´s. 16 GB RAM Haupt­spei­cher + Nvi­dia GTX 680 mit 2 GB RAM; Core I7. Moni­tor 2560 x 1440 OS: Win­dows 8.1

  13. Moin,
    vie­le berich­te­ten dass LR 6 nicht so sta­bil läuft wie
    die älte­ren LR Versionen.
    Vor gut einer Woche hab eich die GPU Funk­ti­on abge­schal­tet, von der selbst Ado­be inzwi­schen sagt sie bräch­te nur was bei 4k und 5k Bildschirmen.
    Was soll ich sagen.
    LR 6 ist wie­der so sta­bil wie eh und je.
    Das habe ich vor eini­gen Tagen schon an ande­rer Stelle
    berich­tet und gleich­lau­ten­des Feed­back bekommen.
    Der GPU Sup­port bringt nicht nur an weni­gen Stel­len ( sprich Tei­len des Ent­wi­ckelns was ).
    Es ist auch schon schlecht umge­setzt, weil es nur in
    weni­gen Auf­loe­sun­gen etwas bringt und zudem auch noch
    insta­bil läuft.
    Kei­ne Angst, mei­ne Trei­ber sind aktu­ell. Und das Feed­back trifft nicht nur AMD oder Nvidia.
    Das ist ein Ado­be Problem.
    Mar­ke­ting Overhype.
    Vor­freu­de ist die schöns­te Freude.
    Freu­en wir uns auf ds nächs­te Update…

    Gruß
    Jürgen

  14. Klas­se! Eine schnel­le Gra­fik­kar­te macht vor­al­lem im Video­schnitt wirk­lich Sinn. Ligh­t­room 6 ver­bes­sert hier nur das Ren­de­ring der Oberfläche!

  15. Benjamin 4. Mai 2015, 15:29   »

    Nach dem Hei­se Arti­kel habe ich auch mal nach­ge­mes­sen. Zur Info: i7-4770 und 8 GB Ram. Gra­ka habe ich zwar auch, aber die macht ja beim Export eh nicht mit. Mit LR 5.7 dau­er­te der Export von 67 Bil­dern 5:36 min mit etwa 50% CPU Last mit LR 6 5:15 dafür aber mit 95 % Last. LR 6 ist also mini­mal schnel­ler dafür aber mit deut­lich höhe­rer Leis­tung und damit auch höhe­rer Strom­ver­brauch ver­bun­den. Im Ent­wi­ckeln Modul habe ich noch kei­ne grö­ße­re Per­for­mance gemerkt. Liegt viel­leicht aber auch dar­an, dass ich kei­ne Voll­for­mat­bil­der habe. Den Hei­se Arti­kel konn­te ich zwar nicht bestä­ti­gen aber eben auch nicht kom­plett umdrehen.
    Echt scha­de, dass Ado­be die Per­for­mance nicht end­lich mal deut­lich stei­gert. Auf die­sen mini­ma­len Zuge­winn kann ich jeden­falls verzichten.

  16. Florian 4. Mai 2015, 15:12   »

    Der vom Hei­se­ver­lag publi­zier­te Geschwin­dig­keits­ver­gleich scheint aber auch ander­wei­tig bestä­tigt zu wer­den – sie­he zum Bei­spiel https://​www​.you​tube​.com/​w​a​t​c​h​?​v​=​P​h​O​F​_​L​0​e​esw

    Hast Du eigent­lich schon mal Cap­tu­re One getes­tet? digi​tal​ka​me​ra​.de ist der Mei­nung, dass das Ent­wi­ckeln-Modul teil­wei­se bes­se­re Ergeb­nis­se lie­fert: (http://​www​.digi​tal​ka​me​ra​.de/​M​e​l​d​u​n​g​/​A​d​o​b​e​_​b​r​i​n​g​t​_​L​i​g​h​t​r​o​o​m​_​6​_​u​n​d​_​L​i​g​h​t​r​o​o​m​_​C​C​/​9​4​9​3​.​a​spx)

    Flo­ri­an

  17. Hal­lo,
    ich benut­ze hier das neue Ligh­t­room an einem Mac­book Pro (2,5 GHz Core i5, 16 GB RAM) unter Mac OS X Yose­mi­te. Von einer Geschwin­dig­keits­stei­ge­rung im Ver­gleich zu LR 5 kann ich hier nichts erken­nen. Im Gegen­teil – der Import und Export dau­ert gefühlt sogar län­ger wie bei LR 5.

    Ich habe den Import-Dia­log schon zwei­mal abge­bro­chen, da es nicht mehr wei­ter­ging und mit der Hälf­te der Bil­der hän­gen blieb. Alles mit einer D800 und RAW-Dateien.

    Also ins­ge­samt hin­ter­lässt das Pro­gramm bei mir gera­de einen zwie­späl­ti­gen Ein­druck. Die Pan­ora­ma Funk­ti­on ist im Ver­gleich zu PtGUI oder auch Hugin etwas spär­lich – auch wenn sie auf DNG-Datei­en basiert. Die Gesichts­er­ken­nung brau­che ich eigent­lich nicht. 

    Mal sehen was da noch so alles kommt..

    Gruß
    Volker

    • Martin P. 3. Mai 2015, 13:10   »

      Hal­lo Volker,

      habe bereits hier: http://gwegner.de/review/lightroom-6-performance-grafikkarte/comment-page‑1/#comments

      … bit­te ganz nach unten scrol­len … wie ich mit dem Pro­blem umge­gan­gen bin. Nach deak­ti­vie­ren des «Gra­fik­pro­zes­sor ver­wen­den» unter LR 6.x läuft wie­der prima.

      Grü­ße,
      Mar­tin (Rgbg.)

      • Dan­ke für den Tip. Ich habe mir das gerad mal ange­se­hen und bin echt erstaunt:

        Menü: Ligh­t­room – Vor­ein­stel­lun­gen – Leistung

        Dort ist die Ver­wen­dung des HD4000 Gra­fik Pro­zes­sors mei­nes Mac­boos ange­kreuzt. Klickt man auf ‘Wei­te­re Infor­ma­tio­nen..’ kommt man zu der Seite:

        - https://​hel​px​.ado​be​.com/​l​i​g​h​t​r​o​o​m​/​k​b​/​l​i​g​h​t​r​o​o​m​-​g​p​u​-​f​a​q​.​h​tml

        Dort wird die Gra­fik­kar­te beim Mac als ‘unsu­por­ted Gra­phic Card’ ange­ge­ben. In den Sys­tem­in­for­ma­tio­inen von Ligh­t­room schein aller­dings alles ok zu sein…

        • Martin P. 6. Mai 2015, 07:52   »

          Ja, das ist Anfangs etwas irri­tie­rend, da der Open­So­ur­ce-Trei­ber unter­stützt, die Gra­fik­kar­te selbst aber nicht.

          Ich bin dabei geblie­ben, den Gra­fik­pro­zes­sor (wird ja nicht unter­stützt) nicht mehr ver­wen­den zu lassen. 

          Grund­sätz­lich hab ich so an der Per­for­mance nicht mehr all­zu­viel zu mäkeln. Beim Impor­tie­ren ist LR 6.x gefühlt lang­sa­mer. Das stört mich aber wei­ter nicht. Kom­me ich nach einer Foto­tour nach Hau­se, so las­se ich die Daten der SSD ein­le­sen und erle­di­ge so lan­ge ande­re Dinge.

          Wie schon geschrie­ben – alles mit einem 13 Zoll Mac­Book Pro aus Mit­te 2009 mit 8Gb RAM! :-)

  18. Jörg 2. Mai 2015, 23:45   »

    Kann man in LR6 end­lich Tas­ten­kom­man­dos zuweisen?
    Noch lie­ber wären mir Makros…Das ist für mich der «Nerv­punkt» schlecht­hin. In AE kann ich mich dumm und däm­lich kon­fi­gu­rie­ren und in LR geht fast nix, ver­ste­he ich nicht.

  19. Michael 2. Mai 2015, 07:52   »

    Super Bericht. Danke!

  20. Ralf 1. Mai 2015, 23:15   »

    Dan­ke für Dei­ne Einschätzung.

    Ich hät­te mir gewünscht, dass Ado­be sol­che Din­ge, wie die Gesichts­er­ken­nung gar nicht erst ein­baut. Ich kann mir näm­lich nicht vor­stel­len, dass LR das Modul gar nicht benutzt, wenn man es abschal­tet. Eben­so brau­che ich kei­ne Kar­te, auf der ich Auf­nah­me­or­te mei­ner Bil­der sehen kann.

    Ich wür­de es bes­ser fin­den, wenn solch ein Schnick­schnack sozu­sa­gen als Zusatz­mo­dul akti­viert wer­den könn­te, wenn man es denn wirk­lich benötigt.

    Und wozu gibt es die Dia­schau, die Erstel­lung einer Web­sei­te? Dafür gibt es deut­lich bes­se­re Programme.

    Dass Bil­der wesent­lich schnel­ler Impor­tiert wer­den kön­nen, zeigt Pho­to Mecha­nics – auch, wenn man das Pro­gramm nicht mit LR ver­glei­chen kann. Dazu sind die Auf­ga­ben der bei­den Pro­gram­me zu unter­schied­lich. Aber auch FastStone erle­digt das Lesen der Daten auch schnel­ler, als LR.

    Den­noch: ich nut­ze es täg­lich und zumin­dest auf dem Mac läuft es bes­ser, als auf mei­nem Windos-Rechner.

  21. Vie­len Dank für das update bezüg­lich neu­er Gra­fik­kar­te & Ligh­t­room 6/CC.

    Ich fin­de es scha­de dass das Fea­ture GPU Beschleu­ni­gung so stark gehy­ped wur­de und am Ende fast nichts wei­ter als hei­ße Luft übrig bleibt. 

    Dei­ne Aus­sa­ge bezüg­lich das die GTX 980 (ca. 550€) das bes­te Preis Leis­tungs­ver­hält­nis bie­tet kann ich lei­der nicht unterschreiben. 

    Ein idea­les Ver­hält­nis bie­tet für die­sen Ver­wen­dungs­zweck eher eine GTX970. Die­se bie­tet auch 4GB Spei­cher (auch wenn davon nur 3.5GB die vol­le Band­brei­te unter­stüt­zen) und kos­tet rund 330€.

    Auch zum Zeit­ver­trei­ben­den spie­len am PC bie­tet die­se auch noch ordent­lich Leis­tung. Das gespar­te Geld hät­te man wie­der für wei­te­ren Kame­ra­schnick­schnack aus­ge­ben können. ;-) 

    Gruß Micha­el

  22. Timo 1. Mai 2015, 12:06   »

    Es ist schon inter­es­sant wie extrem unter­schied­lich die Per­for­man­ce­ein­schät­zun­gen zu LR6 ausfallen. 

    Auch wenn der Hei­se Arti­kel durch­weg schlecht gemacht wird, lei­der(!) kann ich ihn nach­voll­zie­hen. Ich hof­fe, dass es in den nächs­ten Tagen eine Erklä­rung von Ado­be gibt, wor­an die Pro­ble­me lie­gen könnten.

    Mei­ne Ergeb­nis­se sind lei­der sehr schlecht:
    Import: LR5 5:34 LR6 5:20 (ich ver­bu­che das mal unter Messungenauigkeit)

    Stan­dard Vor­schau ren­dern: LR5 3:13, LR6 8:56
    Export mit Schär­fung: LR5 7:40 LR6 9:26

    Obwohl die CPU bei LR6 _deutlich_ bes­ser aus­ge­las­tet war, kam es zu die­sen schlech­ten Ergebnissen.

    ABER: Was ich ganz klar sagen muss, das Durch­ge­hen der Bil­der in der Biblio­thek und auch im Full­screen Modus ist sehr viel schnel­ler als in LR5.

    Mein Sys­tem: Core i7 4770R, 16GB, Iris onChip

    Es bleibt spannend.

  23. Helmut 30. April 2015, 21:42   »

    Dan­ke für die­sen – wie­der ein­mal – sehr inter­es­san­ten Bericht. Ist inter­es­sant, dass ich auch im Biblio­theks­mo­dul enor­me Geschwin­dig­keits­zu­wäch­se ver­zeich­nen konn­te seit LR 6/CC. Ich war schon fast soweit, dass ich mir Pho­to­me­cha­nics kau­fe, das brau­che ich jetzt nicht mehr, weil ich wie­der flott durch­na­vi­gie­ren und bewer­ten kann.

    lg, Hel­mut

  24. Bertram 30. April 2015, 18:49   »

    Dan­ke für den Bericht und das Video.
    Immer wie­der inter­es­sant durch die pra­xis­nah­me Art. Man kann so sein eige­nes Sys­tem einschätzen.

  25. Herwig 30. April 2015, 16:42   »

    Hal­lo,

    Jemand Erfah­rung, ob Ligh­t­room 6 auf einem Mac­Book Air rennt?

    • Michael 4. Juni 2015, 06:48   »

      Ja, auf mei­nem 2013er Mac­Book Air läuft es gut, habe aller­dings 8 GB RAM und den i7 Pro­zes­sor verbaut.

  26. Johannes 30. April 2015, 15:52   »

    Müss­te man nicht eigent­lich die Export­zeit zur Ver­ar­bei­tungs­zeit von PT Gui hinrechnen?
    Ich weiß jetzt ja nicht, wie LR die Bil­der zusam­men­s­titcht. Aber vll. läuft hier intern eine Art „Export“.

    Grü­ße!

    • Den­ke ich nicht, denn LR stitcht ja im RAW for­mat. Natür­lich ist es schwer, das 1:1 zu ver­glei­chen – aber der Unter­schied ist der­ma­ßen ekla­tant, dass ich die Bil­der in der Zeit noch 5x expor­tie­ren könnte.

  27. Achim P 30. April 2015, 15:34   »

    Hal­lo Gunter,

    wie immer dan­ke für den tol­len Bericht. Ich möch­te ganz kurz auch mal mei­nen Senf dazu geben, weil ich im Moment genau in dem The­ma bin. 

    Wir nut­zen Ligh­t­room CC an 3 Rech­nern, wovon 3 I7 der 1. Gene­ra­ti­on sind. Je nach­dem was man macht ist LR da wirk­lich schon ner­vig. Vor allem beim expor­tie­ren. Der 3. Rech­ner ist eine HP Work­sta­tion mit 2x Xenon 3,46 GHz, 48 GB RAM,3x SSD im Raid 0. Neu zuge­legt haben wir uns vori­ge Woche eine Nvi­dia K5000 mit 4 GB. Moni­tor ist ein LG 21:9 Moni­tor 34″ 4K. (abso­lu­tes Sah­ne­t­eil für den Preis von knapp 1000 EUR). Also Leu­te, da geht die Post ab, das ist ein Traum. Da macht LR wirk­lich Spaß. Auch expor­tie­ren geht rasend schnell. 

    Aber vor­wie­gend nut­zen wir den Rech­ner zur Video­be­ar­bei­tung mit Pre­mie­re CC.
    Ein Bei­spiel: Ren­dern eines Fil­mes in MP4 Full HD auf dem I7 mit einer Qua­dro 4000 – 34 Minu­ten. Glei­cher Job auf dem HP mit der K5000 – 5.20 Min. Das ist mal echt ein Quantensprung.

    Aller­dings möch­te ich hier nicht erwäh­nen, was der gan­ze Spaß gekos­tet hat.….…

    • Hi Achim, ja, viel hilft viel. :-) Aber eigent­lich soll­ten Soft­ware­ent­wick­ler den Anspruch haben, dass man ihre Pro­gram­me nicht nur mit bru­ta­ler Rechen­power bewäl­ti­gen kann.
      Wel­cher Moni­tor ist das?

  28. Ralf Schmidt 30. April 2015, 15:02   »

    Moin Gun­ther,
    ich habe mir die Kon­fi­gu­ra­ti­on Dei­nes Rech­ners ange­se­hen. Kannst Du in etwa abschät­zen, wie­viel Ein­fluss die Grös­se des ver­füg­ba­ren RAMs auf die per­for­mance hat, wenn schon der Pro­zes­sor der Gra­fik­kar­te nicht immer genutzt wird? Ggf hängt das ja auch vom ver­wen­de­ten OS ab und ob die­ses die Ver­tei­lung auf meh­re­re Pro­zes­so­ren und Gra­fik­kar­ten unter­stützt. Ich selbst nut­ze der­zeit noch einen 5 Jah­re alten iMac und bin erst kürz­lich von Apers­ter auf Ligh­t­room umge­stie­gen, wobei ich lan­ge mit mir gekämpft habe, ob ich nicht bes­ser cap­tu­re one neh­me. Ado­be hat hat ja einen Ruf zu ver­tei­di­gen, in Bezug auf schlecht per­for­man­te Soft­ware, sie­he nur den ver­ma­le­dei­ten Flash player…

    Gruss, Ralf

  29. StefanB 30. April 2015, 14:25   »

    «Die GTX 980 ist der­zeit vom Preis/Leistungsverhältnis eigent­lich das Bes­te, das man bekom­men kann»

    Die Aus­sa­ge kann ich nicht so unter­strei­chen. Ja, man bekommt ver­dammt viel Leis­tung, muss dafür aber mind. 550 Euro für hin­blät­tern. Die GTX 970 kos­tet 200 Euro weni­ger und ist viel­leicht 10 % lang­sa­mer (abhän­gig von der Anwendung). 

    Und selbst das Dia­gramm auf der von dir ver­link­ten Sei­te zeigt ja bereits, dass es fern­ab der net­ten Preis/­Leis­tungs-Linie ist, wäh­rend die GTX 970 oder AMDs R9 290X doch deut­lich näher dran liegen.

    Naja, und wie sich zeigt, ist es vor allem für Ligh­t­room sowie­so kein Grund, sich eine bes­se­re Gra­fik­kar­te anzu­schaf­fen. Viel­leicht liegt es dar­an, dass ich LR nicht unbe­dingt jeden Tag nut­ze, aber im Ent­wick­lungs­mo­dul hat­te ich selbst bei LR5 nie wirk­lich das Gefühl, dass es beson­ders lang­sam ist. Eher nur dann, wenn die Ein­stel­lun­gen über meh­re­re Bil­der hin­weg syn­chro­ni­siert wer­den müs­sen. Und da habe ich nicht den Ein­druck, dass dies nun spür­bar schnel­ler geht.

    • Mag sein, aller­dings wür­de ich aus Erfah­rung bei den Ado­be Anwen­dun­gen eher auf NVi­dia set­zen, mit AMD Kar­ten gabe es da doch in der Ver­gan­gen­heit oft Kompatibilitätsprobleme.

      • StefanB 30. April 2015, 15:48   »

        Ging mir auch mehr um die Aus­sa­ge in Bezug auf P/L, die ja sogar der ver­link­ten Sei­te wider­spricht. (ich selbst kau­fe seit vie­len Jah­ren ohne­hin nur NVidia) 

        Mit Leis­tung stimmt es (abge­se­hen von der Titan X), nur bei P/L wäre die GTX960 halt die bes­te Wahl bzw. bei mit mehr Leis­tung die GTX970. Natür­lich auch eine Fra­ge des Budgets.

  30. Martin P. 30. April 2015, 13:30   »

    Hal­lo Gunther,

    ich arbei­te hier mit einem 6 Jah­re alten Mac­book Pro (2,5 GHZ Intel Core Duo, 4 GG RAM, Nvi­dia GForce 9400 M 256MB). Der Spei­cher der Gra­fik­kar­te wird vom RAM benutzt.

    Vor einem Jahr habe ich das Mac­book Pro auf 8 GB RAM auf­ge­rüs­tet und eine 256 GB SSD von Sam­sung ein­ge­baut. An die­sem hängt bei der Bild­be­ar­bei­tung noch der 24″ Zoll von Dell. Zeit­raf­fer mache ich nicht.

    Mit dem LR 5.x lief alles zur­frie­den­stel­lend. Mit LR 6 hat­te ich Laten­zen im Ent­wick­lungs­mo­dul beim betä­ti­gen der Reg­ler. Das war nervig. 

    Abhil­fe: LR 6.x erkann­te die Gra­fik­kar­te mit den Open­So­ur­ce Trei­bern. Hier habe ich deak­ti­viert. Nun läuft es prima. :-)

    PTGui läuft auch ein­wand­frei, wenn auch das War­ten beim zusam­men set­zen der Pan­ora­mas etwas Zeit benö­tigt. Immer­hin geht es aber noch so schnell (max. 20 Bil­der), dass sich Kaf­fe kochen noch nicht lohnt.

    Fazit: Auch mit älte­ren Sys­te­men läuft es im nicht pro­duk­ti­ven Bereich annehm­bar und ver­tret­bar. Bis jetzt gibt´s noch kei­nen Grund zum Wech­seln des Systems.

    Grü­ße,
    Mar­tin (Rgbg.)

Unsere Empfehlungen*

  • Astrofotografie: Spektakuläre Bilder ohne Spezialausrüstung!
  • Excire Search für Lightroom: Bilder finden statt Suchen!
  • Foto Koch
  • Lutufy.Me LUTs für Lightroom, Premiere, Davinci etc.
  • Artlist - freie Musik für eure Videos!
  • Motion Array - Vorlagen, Plugins etc. für euren Videoschnitt!
Wir nutzen diese Produkte selber, bekommen aber eine kleine Provision, wenn ihr über diese Links kauft.

Letzte Kommentare

  • Gunther: Hallo Holger, ich denke das ist einfach die Rauschreduzierung, die manche Kameras bei Langzeitbelichtungen anbieten. Dabei nimmt die Kamera nach der eigentlichen Aufnahme noch ein Schwarzbild mit gle... (→ weiterlesen)

  • Gunther: Sorry, was genau meinst Du? Wie zwei Links? Wenn du Die Datei heruntergeladen hast (Dateiname: gwegner.de_Nikon_Z_8_Einstellungen_FW2.0_2.0.1.zip) musst Du sie entpacken und die enthaltene Datei NCSET... (→ weiterlesen)

  • Holger Loser: Hallo Herr Wegner, ich hoffe, meine Frage ist nicht bereits beantwortet, aber ich frage doch mal. Ich fotografiere immer noch mit der Nikon D800, habe aber bereits Sony DSLM getestet. Einen graviere... (→ weiterlesen)

  • Marcus Brinkmann: Moin Gunther, auch ich habe meine Probleme leider, Benutzer zu blöd. Firmware 2.0 klapte prima. Deine Grundeinstellung Datei auf SD karte... In der Cam aktualisieren... passiert nichts, Modus A... (→ weiterlesen)

  • Gunther: Ich finde solche Vergleiche immer schwierig. Unterschiedliche Fotografen, die ihre Kameras unterschiedlich gut kennen und beherrschen und unterschiedliche Kameras... Da ist es schwer zu sagen, was an ... (→ weiterlesen)