Seite 6 von 7 ErsteErste ... 234567 LetzteLetzte
Ergebnis 51 bis 60 von 66

Thema: Capture One 12 erschienen

  1. #51
    Free-Member
    Registriert seit
    15.10.2013
    Beiträge
    89

    Standard AW: Capture One 12 erschienen

    Zitat Bezug auf die Nachricht von RobiWan Beitrag anzeigen
    Du hast an der Stelle Sinn der Session nicht verstanden. Es ist auch schwer in so einem Forum jemanden zu erklären welche Vor/ Nachteile eine Session haben kann und die verschiedene Vorgehensweisen wie man damit arbeiten kann.
    Wenn es in Englisch sein darf, hilft vielleicht dieses Webinar.

  2. #52

    Standard AW: Capture One 12 erschienen

    Zitat Bezug auf die Nachricht von Holger Leyrer Beitrag anzeigen
    Wie löscht man die OpenGL Kernel? Das habe ich bisher noch nie gehört.
    OpenCL Kernel löschen

    \ProgramData\Phase One\Capture One\ImageCore\* und
    \ProgramData\Phase One\Capture One\MultiCoreJITCache\* löschen. Vorher natürlich C1 beenden

    Nach dem Neustart generiert C1 natürlich neue Kernel.

  3. #53
    Free-Member Avatar von f9
    Registriert seit
    26.11.2012
    Beiträge
    1.371

    Standard AW: Capture One 12 erschienen

    Kann man C1 auch ohne Sessions verwenden, oder legt es diese immer an?

    Ich hasse diesen LR-Katalog, da ich LR nicht mal zum Organisieren nutze, sondern nur für ‚Quick and Dirty‘ Entwicklungen, aber man kann LR ja nicht ohne verwenden. Ich kann verstehen, warum Menschen Kataloge und Sessions wichtig sind und warum man gerne damit arbeitet, aber ich finde, die Hersteller sollte einem die WAHL lassen, zwischen "Katalog-Modus" und "Dateimanager-Modus".

    Von wegen „Zumüllen“: Mir ist erst gestern ein größeres Datenvolumen unter C:\ aufgefallen und es hat sich herausgestellt, dass Bridge zu JEDEM Bild, das ich mir darin ansehe, dasselbe Bild, nur in kleiner, noch einmal kopiert. So hatte ich über 2GB NUTZLOSE Daten zu löschen. Was soll so ein Quatsch, außer, dass das Programm vielleicht 0,5sec schneller ist, bei der Anzeige eines Bildes, weil es davon eine kleinere Version zur Verfügung hat?

    Cache ist jetzt gelöscht und das Anlegen eines Neuen auf eine nicht-SSD verschoben und jetzt weiß ich es, wenn ich Bridge mal wieder nutzen will/muss, aber nervend finde ich das schon.

    Ich vermisse echt die Zeiten, in denen Programme und Spiele noch in den Ordnern geblieben sind, in die man sie installiert hat (plus ein paar Reg.-Einträge natürlich).

  4. #54
    ehemaliger Benutzer
    Gast

    Standard AW: Capture One 12 erschienen

    Caches werden immer nach dem LRU-Verfahren genutzt (Last Recently Used) und der Speicherplatz ist bei einem Cache immer begrenzt.

    D.h.: sollte der Speicherbedarf über den vorgegebenen Grenzwert ansteigen, werden zunächst die Files gelöscht, die am längsten nicht mehr gebraucht/angefast wurden.

    So kann der Speicherbedarf niemals über diesen Grenzwert ansteigen, und manuelles Eingreifen ist vollkommen überflüssig.

    Ohne diese Mechanismen ist es eben kein Cache, sondern ein Speicherort wie jeder andere auch. (Bsp.: /tmp-Verzeichnis.)

    Die Unsitte mancher User, da selbst einzugreifen ist vollkommen kontraproduktiv.
    Das mag in dem Mythos begründet sein, daß viele Files auf dem Datenträger den Computer ausbremsen - das ist schon lange nicht mehr so.

    Bei funktionierenden Caches gilt:
    Max. Größe einstellen und vergessen!

  5. #55
    Free-Member Avatar von f9
    Registriert seit
    26.11.2012
    Beiträge
    1.371

    Standard AW: Capture One 12 erschienen

    Wie ein Cache funktioniert, weiß ich selbst. Doch was hat die Tatsache, dass ich Grenzwerte setzten kann, mit dem Wunsch zu tun, dass der Speicherplatz erst gar nicht gebraucht werden soll? Beim Beispiel Bridge z.B. kann man keinen festen Wert in MB oder GB einstellen, sondern nur die Anzahl der Elemente. Kleinster Wert: 10.000.

    Je voller eine HDD wird, desto weiter schreibt sie nach ‚außen‘ und desto länger dauert der Zugriff auf die Daten, die dort stehen. Dahingehend ist es doch nicht ungebührlich, wenn der Nutzer nicht will, dass seine Festplatten unnötig beschrieben werden? Immerhin wird ja ggf. auch noch etwas ‚hinter‘ den Cache geschrieben, welcher dann wieder fragmentiert, weil er sich ständig umschreibt. Das muss doch alles gar nicht erst sein, vor allem, wenn man so etwas wie den Katalog von LR gar nicht haben will.
    Die Gesamtnutzungsdauer einer SDD, die o.g. Problem nicht hat, setzt es ebenfalls herab, wenn die Daten im Cache munter geschrieben, gelesen, gelöscht und neugeschrieben werden.

  6. #56
    ehemaliger Benutzer
    Gast

    Standard AW: Capture One 12 erschienen

    Zitat Bezug auf die Nachricht von f9 Beitrag anzeigen
    Wie ein Cache funktioniert, weiß ich selbst. Doch was hat die Tatsache, dass ich Grenzwerte setzten kann, mit dem Wunsch zu tun, dass der Speicherplatz erst gar nicht gebraucht werden soll? Beim Beispiel Bridge z.B. kann man keinen festen Wert in MB oder GB einstellen, sondern nur die Anzahl der Elemente. Kleinster Wert: 10.000.
    Ob ich den max. Speicherplatz oder die max. Anzahl der Objekte im Cache begrenze ist dabei völlig unerheblich, und von der Anwendung abhängig.

    Zitat Bezug auf die Nachricht von f9 Beitrag anzeigen
    Je voller eine HDD wird, desto weiter schreibt sie nach ‚außen‘ und desto länger dauert der Zugriff auf die Daten, die dort stehen.
    Das stimmt so bei modernen Dateisystemen nicht mehr. Das ist bestenfalls noch bei FATxx ein Problem.
    Außerdem nutzt man ja heute SSDs, und dabei gibt es diesen Effekt erst gar nicht.

    Zitat Bezug auf die Nachricht von f9 Beitrag anzeigen
    Dahingehend ist es doch nicht ungebührlich, wenn der Nutzer nicht will, dass seine Festplatten unnötig beschrieben werden? Immerhin wird ja ggf. auch noch etwas ‚hinter‘ den Cache geschrieben, welcher dann wieder fragmentiert, weil er sich ständig umschreibt. Das muss doch alles gar nicht erst sein, vor allem, wenn man so etwas wie den Katalog von LR gar nicht haben will.
    Die Gesamtnutzungsdauer einer SDD, die o.g. Problem nicht hat, setzt es ebenfalls herab, wenn die Daten im Cache munter geschrieben, gelesen, gelöscht und neugeschrieben werden.
    Warum sollte man das wollen?
    Ein Cache dient der Geschwindigkeitssteigerung.

    Das ist -sorry für den platten Vergleich!- das Selbe, als wenn du im Auto die Abgasreinigung deaktivierst, weil du damit 0,2l/100km zu sparen glaubst.

    Selbst Fragmentierung ist heute kein Problem mehr, um das man sich als User sorgen muß.
    Moderne Betriebssysteme /Filesysteme kümmern sich unter der Haube bereits darum, diesen Effekt klein zu halten und ggf. erforderliche Defragmentierungen werden automatisch im Hintergrund da ausgeführt, wo es auch Sinn macht.

    Die Lebensdauer von SSDs war am Anfang (als SSDs noch neu waren) ein Problem, aber inzwischen haben die zu den klassischen HDs aufgeschlossen, und das ist bei den großen Marken wirkliches nichts, worüber man sich mehr Sorgen machen müsste als bei klassischen mechanischen HDs.

  7. #57
    Free-Member Avatar von f9
    Registriert seit
    26.11.2012
    Beiträge
    1.371

    Standard AW: Capture One 12 erschienen

    Zitat Bezug auf die Nachricht von DerTrickreiche Beitrag anzeigen
    Warum sollte man das wollen?
    Ein Cache dient der Geschwindigkeitssteigerung.
    Na, weil ich den Speicher nicht unnötig belegt haben will. :-)
    Bridge ist keinen Deut langsamer nach dem Löschen des Cache. Seltsam, aber so steht es geschrieben. Wo war jetzt also der Nutzen von 2GB Daten?

    Zitat Bezug auf die Nachricht von DerTrickreiche Beitrag anzeigen
    Das stimmt so bei modernen Dateisystemen nicht mehr. Das ist bestenfalls noch bei FATxx ein Problem.
    Außerdem nutzt man ja heute SSDs, und dabei gibt es diesen Effekt erst gar nicht.
    Da gebe ich Dir recht, was die MFT-Seite der Daten angeht, also die Cluster-Ebene, die das Dateisystem verwaltet, aber auch moderne Dateisysteme oder HDD-Controller können die pure Physik nicht aushebeln, nämlich, dass das Ansteuern von 'außen' liegenden Daten auf einer HDD langsamer ist. Schaue doch einmal bei jedem besseren Benchmark-Programm, was passiert, wenn man die HDD in die äußeren Sektoren geht. SSDs sind, wie geschrieben, unanfällig in der Hinsicht, aber ich arbeite nicht ausschließlich darauf. Ich habe nicht das Geld, mir ings. 11TB SSDs in den Rechner/Schrank zu packen. :-)

    Zitat Bezug auf die Nachricht von DerTrickreiche Beitrag anzeigen
    Selbst Fragmentierung ist heute kein Problem mehr, um das man sich als User sorgen muß.
    Moderne Betriebssysteme /Filesysteme kümmern sich unter der Haube bereits darum, diesen Effekt klein zu halten und ggf. erforderliche Defragmentierungen werden automatisch im Hintergrund da ausgeführt, wo es auch Sinn macht.
    Unter Linux vielleicht, aber Windoof Rechner gehen, trotz NTFS, bei zu viel Fragmentierung auch heute noch in die Knie. Am Wochenende erst bei einem Freund gesehen, der sich wunderte, wieso sein System so langsam ist, aber von der Defragmentierung noch nie etwas gehört hatte. Danach gings deutlich besser - und nachdem ich den Systemstart ausgeräumt hatte nochmal schneller.

    Zitat Bezug auf die Nachricht von DerTrickreiche Beitrag anzeigen
    Die Lebensdauer von SSDs war am Anfang (als SSDs noch neu waren) ein Problem, aber inzwischen haben die zu den klassischen HDs aufgeschlossen, und das ist bei den großen Marken wirkliches nichts, worüber man sich mehr Sorgen machen müsste als bei klassischen mechanischen HDs.
    Da kann man nur hoffen, dass Du recht hast. So wirklich nutzbare Daten über die generellen MTBF (Mean time between failures) gibt es ja über Jahrzehnte noch nicht.
    Backblaze nehme ich da meist als Anlaufstelle, wenn ich eine neue HDD kaufen will, die veröffentlichen ihre Ausfallstatistiken.

  8. #58
    ehemaliger Benutzer
    Gast

    Standard AW: Capture One 12 erschienen

    Zitat Bezug auf die Nachricht von f9 Beitrag anzeigen
    Na, weil ich den Speicher nicht unnötig belegt haben will. :-)
    Bridge ist keinen Deut langsamer nach dem Löschen des Cache. Seltsam, aber so steht es geschrieben. Wo war jetzt also der Nutzen von 2GB Daten?
    Na, das sind keine Speichermengen, über die ich mir Sorgfen machen würde.
    Moderne Betriebssysteme brauchen nun mal einige GB zum "atmen":


    Zitat Bezug auf die Nachricht von f9 Beitrag anzeigen
    Da gebe ich Dir recht, was die MFT-Seite der Daten angeht, also die Cluster-Ebene, die das Dateisystem verwaltet, aber auch moderne Dateisysteme oder HDD-Controller können die pure Physik nicht aushebeln, nämlich, dass das Ansteuern von 'außen' liegenden Daten auf einer HDD langsamer ist. Schaue doch einmal bei jedem besseren Benchmark-Programm, was passiert, wenn man die HDD in die äußeren Sektoren geht. SSDs sind, wie geschrieben, unanfällig in der Hinsicht, aber ich arbeite nicht ausschließlich darauf. Ich habe nicht das Geld, mir ings. 11TB SSDs in den Rechner/Schrank zu packen. :-)
    Natürlich haben auch klassische HDs nach wie vor ihre Berechtigung, aber alles, was irgendwie Einfluß auf die Performance hat, legt man doch auf den schnellsten Datenträger, den man zur Verfügung hat.
    Caches gehören definitiv auf die SSD!

    Zitat Bezug auf die Nachricht von f9 Beitrag anzeigen
    Unter Linux vielleicht, aber Windoof Rechner gehen, trotz NTFS, bei zu viel Fragmentierung auch heute noch in die Knie. Am Wochenende erst bei einem Freund gesehen, der sich wunderte, wieso sein System so langsam ist, aber von der Defragmentierung noch nie etwas gehört hatte. Danach gings deutlich besser - und nachdem ich den Systemstart ausgeräumt hatte nochmal schneller.
    Das war dann aber sicher kein Win10.
    Da geschieht das Defragmentieren automatisch im Hintergrund bei Bedarf.


    Zitat Bezug auf die Nachricht von f9 Beitrag anzeigen
    Da kann man nur hoffen, dass Du recht hast. So wirklich nutzbare Daten über die generellen MTBF (Mean time between failures) gibt es ja über Jahrzehnte noch nicht.
    Backblaze nehme ich da meist als Anlaufstelle, wenn ich eine neue HDD kaufen will, die veröffentlichen ihre Ausfallstatistiken.
    Hier ein paar infos zum Thema:
    https://www.heise.de/ct/artikel/SSD-...n-3849412.html

  9. #59
    ehemaliger Benutzer
    Gast

    Standard AW: Capture One 12 erschienen

    Zitat Bezug auf die Nachricht von RobiWan Beitrag anzeigen
    OpenCL Kernel löschen

    \ProgramData\Phase One\Capture One\ImageCore\* und
    \ProgramData\Phase One\Capture One\MultiCoreJITCache\* löschen. Vorher natürlich C1 beenden

    Nach dem Neustart generiert C1 natürlich neue Kernel.
    Danke.
    Mal schauen wie es sich verhält.

  10. #60

    Standard AW: Capture One 12 erschienen

    Zitat Bezug auf die Nachricht von f9 Beitrag anzeigen
    Kann man C1 auch ohne Sessions verwenden, oder legt es diese immer an?
    Also C1 kann entweder mit Katalog (wie Aperture/ Lightroom) arbeiten oder eben mit Session.
    Bei Session gibt es wieder 3 Möglichkeiten wie man damit arbeitet

    1. Man erstellt eine Session (irgendwo auf der Platte) und importiert Bilder IN die Session. Damit bleibt die Session mit den 4 oder 5 Verzeichnissen in sich komplett geschlossen. Also alles bleibt zu 100% zusammen und kann so überall hinkopiert werden und da weiter bearbeitet werden (also Rechner übergreifend)

    2. Man erstellt irgendwo eine Session - importiert aber in die Session keine Bilder. Die Verzeichnisse mit den Bildern die man in der Session haben will "browst" man mit der Dateibrowser und bearbeitet die Bilder. Vorzugsweise "schiebt" man die Verzeichnisse mit Bildern in Favoriten und so erhält man schnellen Zugriff auf die Dateien.
    In jedem Bildverzeichniss werden die C1 Dateien *.cos, *.cof und Vorschaubilder abgelegt. Diese werden in Unterverzeichnissen zu CaptureOne abgelegt, welches eben im Bildverzeichnis liegt
    Damit hat man keine in sich geschlossene Session aber Ordnung in Bildordnern da diese nach eigenen Vorstellungen abgelegt und verwaltet werden können. Man benennt die Session Vorzugsweise wie ein Projekt, da die geringe Anzahl der Verzeichnisse die man in den Favoriten abgelegt hat wahrscheinlich eine Art Projekt waren.

    3. Man erstellt sich an einer beliebiger Stelle eine Session und bennent die auch beliebig. Von da browst man nur Verzeichnisse in den Bilder liegen die man bearbeiten will. Man legt auch ggf. nur Kurzzeitig Verzeichnisse in Favoriten damit man schneller an die Bilder rankommt so lange die noch bearbeitet werden müssen. Rest bleibt wie bei Punkt 2.

    Die Variante 3 ist auch die mit der ich selbst arbeite. Grund dafür ist relativ einfach - Ich habe meine eigene Verzeichnisstruktur wie die Bilder auf der Platte liegen \Body\Jahr\Monat\Tag (ich benenne die Dateien niemals um). Zur Verwaltung nutze ich Photo Supreme. Aus PSU kann ich auch Bilder direkt an C1 übergeben, also C1 "anweisen" in das entsprechende Verzeichnis zu wechseln damit ich die Bilder da bearbeiten kann. Hätte ich mehrere Sessions musste ich immer daran denken welche Session ich denn zuerst öffnen muss damit Bilder nicht in falscher Session landen. So habe ich eine einzige und die hat keine besondere Funktion

    Ich hoffe das ist so weit verständlich Beschrieben. Wenn etwas unklar sein sollte..... fragen.

Seite 6 von 7 ErsteErste ... 234567 LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •