Gehe zu Seite: Erste Letzte |nächste|

Falls demnächst der ultimative audiophile DVD-Rohling.

+A -A
Autor
Beitrag
Soundscape9255
Inventar
#1 erstellt: 16. Nov 2009, 21:25
.... in der Flachpresse auftaucht, dann könnte es sich um diesen hier handeln:

http://www.spiegel.de/netzwelt/gadgets/0,1518,661479,00.html

*Glaskugelwegräum*
DamonDiG
Hat sich gelöscht
#2 erstellt: 17. Nov 2009, 13:30
Moinsen!


Soundscape9255 schrieb:
.... http://www.spiegel.de/netzwelt/gadgets/0,1518,661479,00.html


Habsch auch grad gelesen.
Für Deine Theorie spricht, daß der entsprechende Brenner min. 5 Kilomäuse kostet. Das ist High End Einstiegspreis.
Mal sehen, wer sich als erster entbödet...

Schöne Grüße,
Simon
djtechno
Hat sich gelöscht
#3 erstellt: 23. Nov 2009, 11:24
hmm,die idee mit dem "hartbrennen" hatte ich auch schon. Daß das dann so teuer wird,war mir ebenso schon vor jahren bewußt. Wundert mich,daß sowas erst jetzt rauskommt. Das das dann so lange hält,wie gepreßt, bezweifel ich nicht,obs 1000 jahre hält,wird sich noch zeigen (in 1000 jahren ;)),die cd wurde ja auch mal mit 100 jahren angesetzt und dann jahr für jahr nach unten korrigiert

Aber das Kompatibilitätsproblem (in 20 jahren gibts vmtl.keine optischen laufwerke im pc-bereich mehr) wird verhindern,daß wir das je erfahren...

ich hatte anno 2004 auch meine daten auf hi-space carbon cd gebrannt,in der hoffnung,marken-cd-r würden zuverlässiger sein,als spindelware. Ha<tte mit 4x (langsamer konnte mein brenner nicht) gebrannt. nach 2 jahren waren die discs alle schon unlesbar

Vorallem die ränder der discs enthalten bis zu 90% unlesbare sektoren Bis etwa zwei drittel der discs gehen diese noch.

Bei daten hilft das aber wenig,da dann oft nur nch 10% der dateien lesbar sind

bei audio fällt der defekt meist erst nach >5 jahren auf meiner erfahrung nach....
Hörbert
Inventar
#4 erstellt: 23. Nov 2009, 11:38
Hallo!

@djtechno

Das deckt sich mit meinen eigenen Erfahrungen, nach etwa 5 Jahren sind etwa 50% der gebrannten CDs im Eimer, nach etwa 10 Jahren fast alle. Dabei ist es davon unabhängig ob man Markenrohlinge onder nicht verwendet hat.

Nicht unwesentlich allerdings ist der "Füllgrad" dr Rohlinge. Je weniger Daten draufgepackt sind um so länger halten sie.

MFG Günther
stoske
Inventar
#5 erstellt: 23. Nov 2009, 12:19
Hi,

ich habe hier >900 DVDs bis zu einem Alter von elf Jahren. Alles selbstgebrannte
Rohlinge diverser Hersteller. Die Ausfallrate beträgt deutlich unter 1%. Meiner
Erfahrung nach spielt die Lagerung und Handhabung eine maßgebliche Rolle.
Licht ist das größte Übel. Eine halbe Stunde in der prallen Sonne, oder ein paar
Tage bei normalem Licht - und schon ist der Rohling hin. Lichtgeschützt, und
zwar total, vervielfacht sich Haltbarkeit und >10 Jahre sind kein Problem.

Grüße, Stephan Stoske
djtechno
Hat sich gelöscht
#6 erstellt: 23. Nov 2009, 12:27
Das ist korrekt. da die ränder zuerst ausfallen und von innen nach außen gebrannt wird, erwischts die daten bei einem zu 66% gefüllten rohling sehr viel später,als bei einem "randvollen" der im endeffekt nicht sonderlich lange hält

Bei daten fällts direkt auf,da ein unlesbarer sektor die ganze datei unbrauchbar macht

Bei audio bügelts die fehlerkorrektur mehr oder weniger gut aus, bis es zu aussetzern und hörbaren störgeräuschen kommt müssen schon etliche % der sektoren unleserlich sein.

Ob eine audio-cd tatsächlich länger hält,als eine daten-cd habe ich aber nicht wirklich getestet. Meine wenigen selbst gebrannten audio-cd-r scheinen länger zu halten als die damaligen unzähligen daten-cds, wohl weil ein paar fehler da nicht so sonderlich stören,so lange es nicht springt oder penetrannt knattert/"schleift" oder wie man das geräusch auch nennen will, aber wie gesagt,wirklich ausgetestet habe ich es nicht.

Ändert aber nix daran,daß diese Technik zum Archivieren nicht wirklich taugt.

Momentan scheinen festplatten (immer auf 2 hdds gespiegelt) die günstigste lösung zu sein zum langzeitarchivieren, man muß natürlich ab und an die platten prüfen,und nach einer gerwissen zeit (afaik 5 jahre) umkopieren

da nach 5 jahren x alte hdds auf wenig neue gehen und das umkopieren hunderter gigabytes von einer hdd immer noch komfortabler ist,als von hunderten cd-r's, ist das meiner meinung nach halbwegs praktikabel zum archivieren

das mit de rlichabschirmung bei cd-r ist auch ein wichtiges thema. Das ärgert mich bei manchen jewel-cases/slimcases von cd-r. Manche Hertseller finden es "hipp" das slimcase beidseitig transparent zu machen,bzw den einleger des jewel cases,der die cd-r aufnimmt.

Der war ursprünglich mal schwarz,sprich lichtundurchlässig und hat in verbindung mit dem (bei manchen herstellern auch schon fehlenden) deckblatt im deckel die cd-r schon ganz ordentlich gegen Licht abgeschirmt. Aber transparent ist halt sowas von in...


[Beitrag von djtechno am 23. Nov 2009, 12:48 bearbeitet]
lotharpe
Inventar
#7 erstellt: 25. Nov 2009, 21:30
Habe auch noch einige alte CD-R's herumliegen, die ältesten dürften um die 10 Jahre oder noch älter sein.
Gebrannt wurden sie damals mit einem Philips CD-Brenner, er unterstützte max. zweifache Brenngeschwindigkeit.
Ich muß die Rohlinge mal testen, könnte mir durchaus vorstellen das einiges nicht mehr zu gebrauchen ist.
Wenn ich heute noch mal eine Audio CD erstelle oder kopiere, brenne ich sie mit dem Plextor Premium 2 im Audio Master Quality Modus auf MAM-E Pro Studio Rohlinge.
Von diesen Rohlingen konnte ich noch 100 Stück aus Restbeständen ergattern, sie werden nicht mehr hergestellt.
Wie lange die Daten darauf allerdings halten, kann ich jetzt noch nicht beantworten, die Zukunft wird es zeigen.

Beim Audio Master Quality Recording werden im Gegensatz zum Standardmodus längere Pits und Lands geschrieben, dadurch ist auch weniger Platz auf dem Rohling verfügbar.
Auf einem 700 MB großen Rohling ist also nach ca. 68 Minuten Musik Schluss, darauf muß man achten.


[Beitrag von lotharpe am 25. Nov 2009, 21:49 bearbeitet]
RoA
Inventar
#8 erstellt: 26. Nov 2009, 10:05

lotharpe schrieb:
Habe auch noch einige alte CD-R's herumliegen, die ältesten dürften um die 10 Jahre oder noch älter sein.


Ich habe just dieses Jahr sämtliche Selbstbrände (die ältesten aus 1998) auf Platte archiviert, darunter auch ein paar CD-Kopien. Ergebnis: Alles fehlerfrei einlesbar. Einige Fremdbrände liessen sich leider nicht mehr vollständig einlesen, und die kamen alle aus der gleiche Quelle auf Billig-Rohlingen (meist "Platinum" und "Best-Media").


Von diesen Rohlingen konnte ich noch 100 Stück aus Restbeständen ergattern, sie werden nicht mehr hergestellt.


Gibt es eigentlich ein max. Haltbarkeitsdatum für ungebrauchte Rohlinge?
lotharpe
Inventar
#9 erstellt: 26. Nov 2009, 18:38
Laut MAM-E (Mitsui) sollen die Pro Studio CD-R's bei sachgemäßer Lagerung 200 Jahre lesbar und beschreibbar sein, jedenfalls habe ich es mal im Net irgendwo gelesen.
Bestätigen werden wir oder ich es nicht können.
Die gleichen Rohlinge wurden unter einem anderen Label auch im Medizinischen Bereich für die Datenarchivierung angeboten.
Bei anderen Markenherstellern müsste es Datenblätter geben, oder den Hersteller diesbezüglich einfach mal anschreiben.

Unser Mod cr müsste das aber wissen, er befasst sich ja schon länger mit dem Thema Rohlinge.


[Beitrag von lotharpe am 26. Nov 2009, 18:53 bearbeitet]
cr
Inventar
#10 erstellt: 30. Nov 2009, 04:39

Das deckt sich mit meinen eigenen Erfahrungen, nach etwa 5 Jahren sind etwa 50% der gebrannten CDs im Eimer, nach etwa 10 Jahren fast alle. Dabei ist es davon unabhängig ob man Markenrohlinge onder nicht verwendet hat.


Mit meiner nicht. Alle CDRs im Alter 5-10 Jahre, gebrannt mit Plextoren, Philips/Tascam-Audiobrennern haben c1-Fehlerrraten, die 1/100 der BLER-Rate betragen (im Mittel 1-2), also Traumwerte. Ein paar miese Rohlinge (immer dieselben) sind ausgefallen. Auch bei Tests im Jahresabstand bleiben die Raten dieselben.
Alle CDRWs, die ich habe, sind ebenfalls top-stabil.
Der Befüllungsgrad spielt keine Rolle. Da ich vor allem Sampler brannte, sind alle bis auf 0-3 Min. total voll.
cr
Inventar
#11 erstellt: 30. Nov 2009, 04:48

Laut MAM-E (Mitsui) sollen die Pro Studio CD-R's bei sachgemäßer Lagerung 200 Jahre lesbar und beschreibbar sein, jedenfalls habe ich es mal im Net irgendwo gelesen.
Bestätigen werden wir oder ich es nicht können.
Die gleichen Rohlinge wurden unter einem anderen Label auch im Medizinischen Bereich für die Datenarchivierung angeboten.
Bei anderen Markenherstellern müsste es Datenblätter geben, oder den Hersteller diesbezüglich einfach mal anschreiben


Es stimmt alles, wie du es sagst.
MAME habe ich auch etliche gebrannt. Die ältesten sind 5 J. Bisher absolut stabil. Aber wie gesagt, gut gebrannte RWs sind genauso stabiler. Erst relativ spät ist Verbatim mit einer Studie gekommen, vorher war immer von 30 Jahren die Rede, jetzt sind es 100.

An alle, die von solchen Problem berichten: Irgendwas bei euch läuft schief. Entweder haben die CDRs von Anfang an hohe Fehlerraten (zu schnell gebrannt, Brenner/CDR nicht kompatibel, Brenner schlecht), Lagerung?.

Bei den Marken-CDRs habe ich riesige Probleme mit den Fuji gehabt, alle zeigen Verschlechterungstendenzen, tw. recht rasch. Ferner habe ich ein paar ungeeignete am Audiobrenner gebrannt: Resultat: Verschlechtern sich rasch, während die am PC korrekt gebrannten stabil bleiben.

Diejenigen Hersteller (nicht: Label), wo es nie Ausfälle/schleichende deutliche Verschlechterung gab: TDK, Ritek, TY, MAME, die alten Maxell.
op111
Moderator
#12 erstellt: 30. Nov 2009, 14:33
Mit meiner Erfahrung decken sich diese hohen Ausfallraten ebenfalls nicht.
Ich habe die selben Erfahrungen wie cr gemacht:

cr schrieb:
Alle CDRs im Alter 5-10 Jahre, gebrannt mit Plextoren, Philips/Tascam-Audiobrennern haben c1-Fehlerrraten, die 1/100 der BLER-Rate betragen (im Mittel 1-2), also Traumwerte. Ein paar miese Rohlinge (immer dieselben) sind ausgefallen. Auch bei Tests im Jahresabstand bleiben die Raten dieselben.


Ich habe im ganzen Zeitraum (mehr als 12 Jahre) immer wieder Sampler für Tests mit Musik und synthetischen (Mess-)Signalen gebrannt.
Fazit: Wenn ein hochwertiger Rohling (TDK, Ritek, TY, alte Maxell) verwendet wurde der mit den Brenner harmoniert, habe ich keine Ausfälle, noch nicht einmal deutlich messbare Fehlerratensteigerungen feststellen können.
Selbst mein erster Kodak-Brand (mit HP-Brenner [Philips] im Mac, 1995) hat extrem niedrige Fehlerraten.


[Beitrag von op111 am 30. Nov 2009, 14:39 bearbeitet]
lotharpe
Inventar
#13 erstellt: 01. Dez 2009, 19:30
Gibt es zum Thema Datensicherheit und Haltbarkeit schon Infos bei Blu-ray Rohlingen?
Habe letzte Woche den Plextor PX-B940SA bestellt, er müsste eigentlich diese Woche ankommen.
Ev. ist es noch zu früh für diese Technik, aber irgendwann muß man damit ja mal anfangen.
Einen reinen DVD-Brenner wollte ich mir für den Hauptrechner nicht mehr zulegen, habe noch drei in anderen PC's im Einsatz.


[Beitrag von lotharpe am 01. Dez 2009, 19:38 bearbeitet]
cr
Inventar
#14 erstellt: 02. Dez 2009, 03:49
Was kosten die BR-Rohlinge eigentlich? Kann mich an 10,- erinnern. Und BR-RW???
lotharpe
Inventar
#15 erstellt: 02. Dez 2009, 18:56
Schau hier.

Link zu Alternate
cr
Inventar
#16 erstellt: 03. Dez 2009, 05:39
Geht ja. Die spannende Frage ist nun, welche auch haltbar sind.

PS: Alternate scheint eine gute Quelle für die schwer erhältlichen JVC-DVD-Rohlinge zu sein (das sind TY-DVDRs).
cr
Inventar
#17 erstellt: 03. Dez 2009, 14:44
Habe gestern erstmals einen Double-Layer gebrannt. Wie ich vermutet habe, überzeugt das nicht. Die Fehlerraten sind zwar noch stark im grünen Bereich, aber dennoch die PIE im Mittel um den Faktor 10 höher als bei guten DVDRs sonst habe. POE sind dagegen gut, außer einmal gegen Ende.

siehe Diagramm
ergänzende Info: PIF sind 2900 total, max. 4 (4-mal) und meist 1-2.

Brenner: Plextor 755 (extern), Verbatim DVD-R DL 4x.



So schauts bei einer normalen DVD-R (TY) bei mir aus (Maßstab beachten: oben haben wir 100, unten nur 20 als Maximum der y-Achse):


[Beitrag von cr am 03. Dez 2009, 14:52 bearbeitet]
op111
Moderator
#18 erstellt: 03. Dez 2009, 15:27

cr schrieb:
Brenner: Plextor 755 (extern), Verbatim DVD-R DL 4x.


Wo liegt der Layer-Break exakt?
Bei der roten (Fehler-)Linie um 4,2 (GByte)?

Treten auch Probleme beim Abspielen (auf stand alone Geräten) auf?
Mir wurden längere Pausen beim layerbreak berichtet, von einigen Minuten bis zum Endlosleseversuch, und das obwohl der Brenner keine Fehler meldete.
cr
Inventar
#19 erstellt: 03. Dez 2009, 15:41
Das ist eine gute Frage. Insg. sind es exakt 8 GB, wenn nun der eine Layer komplett gefüllt wird, müßte es bei etwa 3,5 GB sein, also dort, wo der Berg herunterkommt.
Was mich wundert, ist, daß auch der unproblematische Layer nicht sonderlich gut ist. Der Fehlercluster bei 7,5 GB ist dann noch mal ein Kapitel für sich.

Die DVDR erfüllt zwar die Fehleranforderungen, aber ich nehme an, daß sie nur ein paar Jahre halten wird.

Wie DLs im Normalfall fehlermäßig ausschauen, dazu fehlen mir total die Erfahrungen. Ich brenne sie nur, weil ich sie für Testzwecke geschenkt bekam.
op111
Moderator
#20 erstellt: 03. Dez 2009, 15:55
Was mir noch nicht so ganz klar ist,
fassen bei der DL beide Layer dieselbe Datenmenge oder ist ein Layer kleiner?
An einer stelle hiess es mal der entferntere Layer habe einen grösseren Durchmesser, ob innen oder/und aussen wurde nicht erwähnt.

In der Wikipedia habe ich das entweder nicht gefunden oder es wird keine Aussage dazu gemacht:
Wikip. DVD
RoA
Inventar
#21 erstellt: 03. Dez 2009, 17:04

cr schrieb:
Die DVDR erfüllt zwar die Fehleranforderungen, aber ich nehme an, daß sie nur ein paar Jahre halten wird.


Das hoffe ich auch. Früher habe ich grds. alle aufgenommenen und kopierten Filme auf DVD gespeichert, und allmählich denke ich darüber nach, zumindest die wichtigsten wieder auf Platte zu sichern.


op111 schrieb:
fassen bei der DL beide Layer dieselbe Datenmenge oder ist ein Layer kleiner?


Der erste Layer fasst nur ca. 3,5 GB. Es ist übrigens eine ganz schöne Frickelei, den Layer-Break so zu setzen, daß man bei Videos den Layer-Wechsel nicht bemerkt. Außerdem dauert das Brennen ziemlich lange (gut 40 Minuten) und die Gefahr eines Fehlbrandes ist ziemlich groß, deshalb ist man gut beraten, die DVD zu verifizieren. Auf gut 1000 Single-Layer-DVDs kommen bei mir genau 6 Double-Layer-DVDs.
cr
Inventar
#22 erstellt: 03. Dez 2009, 17:07
1. Lesen (wiki)
Umfokussieren des Lasers auf eine zweite Datenschicht (Dual-Layer-DVD, DL). Bei Daten-DVDs werden beide Layer von innen nach außen gelesen. Bei DVD-Video wird das untere Layer von innen nach außen gelesen, das obere zurück von außen nach innen.

2. 4.7 vs. 8.5 GB ergibt 3,8 GB
Soweit ich mich erinnere, muß zuerst der verdeckte Layer geschrieben werden, weil durch das Schreiben die Lichtdurchlässigkeit des äußeren Layers leidet.


Was noch bemerkenswert ist: In der Wiki wird endlich die bessere Haltbarkeit von RW-Medien betont (das war ja bisher eher eine Minderheitsmeinung, auch wenn ich schon seit 8 Jahren danach handle und wohl weit mehr CDRWs und DVDRWs gebrannt habe als -Rs;).
RoA
Inventar
#23 erstellt: 03. Dez 2009, 17:26

cr schrieb:
2. 4.7 vs. 8.5 GB ergibt 3,8 GB


Und das sind ca. 3.500 echte MB, so wie 4,7GB tatsächlich nur 4460 echte GB sind.8)
cr
Inventar
#24 erstellt: 03. Dez 2009, 17:30
Ja,je höher die Zahl, desto schlimmer wirds. Eine 1 TB Festplatte hat nur 930 GiB.
(laut Wiki heißen die richtig dargestellten Zahlen MiB, GiB, TiB)
Florian_1
Stammgast
#25 erstellt: 03. Dez 2009, 18:33
Nö, eine 1 TB hat 1 TB Speicher. Denn nach ISO-Norm wird in 1000er Schritten gerechnet, Windows + Mac tun noch in 1024er Schritten rechnen, wegen angeblichen Komptibilitäts Problemen.

Achso: 1.000.000 Bytes = 1Megabyte
1.048.576 Bytes = 1Megabibyte
RoA
Inventar
#26 erstellt: 03. Dez 2009, 18:52
1 Byte = 8 Bit

1 Kilobyte (kB) = 1024 Byte, 1 Megabyte (MB) = 1024 Kilobyte = 1024 · 1024 Byte = 1.048.576 Byte usw.

So habe ich es vor weit, weit über 16 Jahren gelernt.


1.048.576 Bytes = 1Megabibyte


Du meinst sicherlich Mebibyte.

Tut mir leid, aber das akzeptiere ich nicht. Ich bin nicht bereit, einen Taschenrechner zücken zu müssen, damit sich die Festplattenindustrie ihre Kapazitäten zurechtlügen kann. Aktuell sind es schon 10% (bei Terabyte). Da sich die Differenzen mitpotenzieren, reden wir beim Yobibyte schon über fast 21%. Da geh ich nicht mit.
Florian_1
Stammgast
#27 erstellt: 03. Dez 2009, 19:06
Per Norm müssem die Datenmengen in 10Potenzen angegeben werden
Tun win etc. aber nicht. Würde ja schon reichen wenn sie beides draufdrucken. Ncoh schlimmer sind ja die Internetanbieter, die geben es gleich in Megabit an
RoA
Inventar
#28 erstellt: 03. Dez 2009, 19:13

Florian_1 schrieb:
Per Norm müssem die Datenmengen in 10Potenzen angegeben werden


Es gibt keine Norm.

Das war ein Vorschlag der IEC, eine Empfehlung. Und bislang folgen nur die Speicher-Medien-Hersteller dieser Empfehlung.
Die Amis empfehlen übrigens die weltweite Einführung der Meile, wollen aber nicht wie von den Engländern vorgeschlagen links fahren.
cr
Inventar
#29 erstellt: 03. Dez 2009, 19:16
Der Verlustfaktor ist 1,024 hoch n
n= 1 für k
n= 2 für M
n= 3 für G
n= 4 für T

Da frag ich mich aber jetzt, wieso ich eig. 930.000.000.000 Byte habe und nicht nur 910......
op111
Moderator
#30 erstellt: 03. Dez 2009, 19:18

cr schrieb:
Da frag ich mich aber jetzt, wieso ich eig. 930.000.000.000 Byte habe und nicht nur 910...... ;)

Das ist die Reserve für defekte Sektoren.
RoA
Inventar
#31 erstellt: 03. Dez 2009, 19:31

cr schrieb:
Da frag ich mich aber jetzt, wieso ich eig. 930.000.000.000 Byte habe und nicht nur 910...... ;)


Es ist eine Frage der Betrachtungsweise.

10 hoch 12 Byte = 1.000.000.000.000 Byte = 1 Terabyte (nach "Norm" )

2 hoch 40 Byte = 1.099.511.627.776 Byte = 1 Tebibyte (ebenfalls nach "Norm" )

Macht summa sarum nach Adam Riese kaufmännisch gerundet 10%.

q.e.d.
Florian_1
Stammgast
#32 erstellt: 03. Dez 2009, 19:37

RoA schrieb:

Florian_1 schrieb:
Per Norm müssem die Datenmengen in 10Potenzen angegeben werden


Es gibt keine Norm.


Okay, in meiner letzten informatikarbeit hab ich dafür nen Punkt gekriegt
Ich könnte unsere Lehrer verprügeln - unsere Karten die wir für Erdkundearbeiten nehmen sind teilweise 100Jahre alt. Sogar noch Schaubilder von vor 1WK. Und dann schreibt man in einer Arbeit "Im südlichen Bereich der Udssr ..." Weil man den heutigen Namen des Landes nicht weiß Und sowas aufm Gymnasium, aber ca. 3.500€ für nen vertragsplan auf 3 Bildschirmen, wobei der wegen Windoofautoupdate ständig sich selbst herunterfährt
lotharpe
Inventar
#33 erstellt: 03. Dez 2009, 21:03
Das relativ fehlerfreie Brennen von Double Layer-DVD's, scheint ein Glücksspiel zu sein.
Trotz Verbatims und max. 6 facher Brenngeschwindigkeit produziert ein Bekannter regelmäßig Ausschuß.
Auf dem PC lassen sich die fehlerhaften DVDs einigermaßen auslesen, spielt er sie aber in seinem DVD-Player ab, kommt es spätestens beim Layerwechsel zu Störungen.
Entweder setzt der Film komplett aus, wass man am Geräusch des Lasers hören kann, oder es geht nach einer kurzen Pause weiter und die Störungen (Standbild) kommen später.
Man kann es auch gut beim schnellen Durchschalten der Kapitel testen.
Klappt es zügig bis zum Schluß des Films, ist die DVD in der Regel o.k., hört man aber schon beim weiterschalten Lasergeräusche (Kratzen) und es geht erst nach einer Pause weiter, ist der Rohling unbrauchbar.
Bei meinen jetzigen Brennern 2xLG GGC-H20L und ein Plextor PX-760SA gibt es bei Filmen zeitweise auch Ausschuß, woran das liegt, weiß ich nicht.
Brenne oder kopiere nur selten Filme, möglich das es trotz DVDFab am Kopierschutz liegt.
Muß mal ein Testprogramm zum Auslesen der Fehlerraten installieren, aus reiner Faulheit wurde es immer verschoben.

Der neue PX-B940SA ist übrigens heute angekommen, mal schauen wie er sich macht.

Edit: Lese gerade, dass der PX-B940SA baugleich mit dem Pioneer BDR-205 ist.


[Beitrag von lotharpe am 03. Dez 2009, 21:34 bearbeitet]
cr
Inventar
#34 erstellt: 03. Dez 2009, 22:58
Daher sind mir DL auch anscheinend zu Recht suspekt. Die von mir angeführte müßte bei diesen Fehlerraten noch gut lesbar sein.

Wer den BD-Brenner tatsächlich herstellt, weiß man nicht? Ich nehme nicht an, daß Pioneer BR wirklich selber macht und Plextor macht ja auch nichts mehr.


[Beitrag von cr am 03. Dez 2009, 22:59 bearbeitet]
VolkerLee
Hat sich gelöscht
#35 erstellt: 07. Dez 2009, 01:29
Also wenn ich Daten sicher speichern möchte dann auf Festplatten. 2 Terabyte kosten derzeit 120 Euro. Wenn man die gut lagert dann sind die Daten auch in 20 Jahren noch da. Dann vielleicht nochmal auffrischen oder auf ein neues Medium umkopieren.

Mir ist noch nie eine Festplatte kaputt gegangen und ich hatte darauf noch nie Datenverlust. Die ältesten Platten, die ich hier mit deutlich über 300.000 Betriebsstunden noch immer betreibe (Quantum 500 Megabyte, Einsatz derzeit für das Linux im Sat-Receiver) sind ~15 Jahre alt.


[Beitrag von VolkerLee am 07. Dez 2009, 01:30 bearbeitet]
cr
Inventar
#36 erstellt: 07. Dez 2009, 04:34
Das ist reine Glückssache.

Von 6 1 TB-Festplatten hat sich eine bereits beim Umformatieren von FAT32 auf NTSC verabschiedet (in der 1. Stunde). Umgekehrt habe ich eine seit 2000 täglich wohl 8h im Betrieb (>30.000 Stunden). Aber in der Firma hatten wir auch schon genug Festplattencrashes.

Abgesehen davon, daß es nicht praktisch ist, aber 20 Jahre halten meine CDRWs auch locker, die ich in den letzten 10 Jahren angelegt habe (inzwischen mache ich schon länger keine mehr).
RoA
Inventar
#37 erstellt: 07. Dez 2009, 06:32

VolkerLee schrieb:
Die ältesten Platten, die ich hier mit deutlich über 300.000 Betriebsstunden noch immer betreibe (Quantum 500 Megabyte, Einsatz derzeit für das Linux im Sat-Receiver) sind ~15 Jahre alt.


300.000 Betriebsstunden ~ 34 Jahre. Respekt.
Amperlite
Inventar
#38 erstellt: 07. Dez 2009, 07:53

VolkerLee schrieb:
Also wenn ich Daten sicher speichern möchte dann auf Festplatten. 2 Terabyte kosten derzeit 120 Euro. Wenn man die gut lagert dann sind die Daten auch in 20 Jahren noch da. Dann vielleicht nochmal auffrischen oder auf ein neues Medium umkopieren.

Achtung!
Neuere Festplatten sollte man nicht zu lange im Schrank liegen lassen. Die Hersteller "garantieren" meines Wissens nur 3 Jahre Haltbarkeit.
Es wäre wegen der hohen Datendichten sicherer, die Daten in regelmäßigen Abständen komplett neu auf die Platte zu schreiben.
cr
Inventar
#39 erstellt: 07. Dez 2009, 13:10
Diese Bedenken sind mir auch schon gekommen, daß neue Festplatten aufgrund der kleinen Strukturen anfälliger sein könnten.
Wird aber ein Neubeschreiben wirklich Abhilfe schaffen?
VolkerLee
Hat sich gelöscht
#40 erstellt: 07. Dez 2009, 13:13

RoA schrieb:

VolkerLee schrieb:
Die ältesten Platten, die ich hier mit deutlich über 300.000 Betriebsstunden noch immer betreibe (Quantum 500 Megabyte, Einsatz derzeit für das Linux im Sat-Receiver) sind ~15 Jahre alt.


300.000 Betriebsstunden ~ 34 Jahre. Respekt. 8)



Hast Recht, ich habe nochmal nachgeguckt. 134.000 Betriebsstunden hat eine Platte.
VolkerLee
Hat sich gelöscht
#41 erstellt: 07. Dez 2009, 13:32

cr schrieb:
Diese Bedenken sind mir auch schon gekommen, daß neue Festplatten aufgrund der kleinen Strukturen anfälliger sein könnten.
Wird aber ein Neubeschreiben wirklich Abhilfe schaffen?


Hmmh....einige meiner Platten sind 3-6 Jahre alt bei 250-400 GB Speicherplatz. Da hatte ich bisher auch noch keinen Datenverlust.

Und wenn es ihn doch geben sollte aufgrund der erhöhten Speicherdichte dann kann man die Daten natürlich einfach neu schreiben, um einer schleichenden Entmagnetisierung der Daten zu begegnen.


[Beitrag von VolkerLee am 07. Dez 2009, 13:37 bearbeitet]
RoA
Inventar
#42 erstellt: 07. Dez 2009, 14:04

cr schrieb:
Wird aber ein Neubeschreiben wirklich Abhilfe schaffen?


Ich halte das für ein Märchen. Wenn ein Sektor nicht mehr lesbar ist, ist er defekt und läßt sich dauerhaft auch nicht wiederbeleben. Das war bei Disketten so, dito bei älteren Festplatten, und bei modernen ist es auch nicht anders. Wenn sich bei einem Laufwerk die ersten defekten Sektoren zeigen, ist es Zeit, sich umgehend von ihr zu trennen, denn erfahrungsgemäß verabschieden sich recht schnell weitere Sektoren.

Alle Aussagen zur Haltbarkeit sind rein statistisch, und ex ante vorauszusagen, wie lange eine bestimmte Festplatte halten wird, ist rein spekulativ. Für Festplatten gilt insoweit nichts anderes als bspw. für Glühbirnen. Ein Indikator für die Fitness von Festplatten sind die sog. Smart-Parameter. Wenn ein baldiges Ableben in Aussicht gestellt wird, ist es Zeit, sich über einen Angebotstext Gedanken zu machen.
VolkerLee
Hat sich gelöscht
#43 erstellt: 07. Dez 2009, 15:33
Bei Disketten war das meistens ein mechanisches Problem. Staub und Dreck beschädigten die Datenträgeroberfläche. Daher ließen sich die defekten Sektoren dann auch nicht wieder sicher beschreiben.

Aber wenn die Daten auf einer Festplatte nach einer Zeit durch Entmagnetisierung undeutlicher werden und irgendwann nicht mehr zu lesen sind dann würde ich schon sagen, dass man das Problem durch simples Neuschreiben in den Griff bekommt.


[Beitrag von VolkerLee am 07. Dez 2009, 15:35 bearbeitet]
cr
Inventar
#44 erstellt: 07. Dez 2009, 15:49
Gibt es eigentlich unter Festplattenoptionen einen Modus, dass dieselben Daten neu geschrieben werden?
RoA
Inventar
#45 erstellt: 07. Dez 2009, 16:07

VolkerLee schrieb:
Aber wenn die Daten auf einer Festplatte nach einer Zeit durch Entmagnetisierung undeutlicher werden und irgendwann nicht mehr zu lesen sind dann würde ich schon sagen, dass man das Problem durch simples Neuschreiben in den Griff bekommt.


Wenn Sektoren nicht mehr lesbar sind, sind sie defekt. Die einzige Möglichkeit ist, sie zu sperren. Erfahrungsgemäß kommen aber kurzfristig neue defekte Sektoren dazu, deshalb ist eine Festplatte mit defekten Sektoren unzuverlässig.


cr schrieb:
Gibt es eigentlich unter Festplattenoptionen einen Modus, dass dieselben Daten neu geschrieben werden?


Natürlich nicht, dafür besteht auch kein Bedarf. Das würde nur dann Sinn machen, wenn Sektoren kontrollierbar altern würden, und das dürfen sie nicht. Bei SSDs ist es bspw. so, dass sich die Sektoren nur ca. 100.000 beschreiben lassen. Würde man bspw. die Auslagerungsdatei immer an der selben Stelle belassen, würden vorzeitig Sektoren irreparabel ausfallen und die Maschine deshalb ständig abstürzen. Darum gibt es bei SSDs einen intelligenten Controller, der Festplatteninhalte regelmäßig verschiebt, damit die SSD gleichmäßig verschleißt und nicht einzelne Bereiche vorzeitig ausfallen. Trotzdem hat eine SSD nur eine Lebenszeit von ca. 3 Jahren. Bei den aktuellen Preisen ist das nicht akzeptabel.
Black_Seraph
Stammgast
#46 erstellt: 07. Dez 2009, 16:29
Bei allem was mir wirklich wichtig ist und was ich nicht verlieren mag, davon lege ich immer richtige Sicherungen mit Paritätsdateien an.
Quickpar ist kostenlos und sehr schnell.
Sollte nun eine Datei, aus welchen Gründen auch immer, nicht lesbar/defekt sein, so kann ihr Inhalt aus den Paritätsdateien rekonstruiert werden.

Einziger Nachteil: Der benötigte Speicherplatz steigt. Aber das nehme ich gerne in Kauf.
cr
Inventar
#47 erstellt: 07. Dez 2009, 17:50

Das würde nur dann Sinn machen, wenn Sektoren kontrollierbar altern würden


Hältst du eine schleichende De-Magnetisierung für völlig ausgeschlossen? In diesem Falle wäre ja der Sektor nicht wirklich defekt, sondern nur unlesbar und neu beschreibbar.


@Black Seraph

Einziger Nachteil: Der benötigte Speicherplatz steigt. Aber das nehme ich gerne in Kauf.



Wieviel ?

Ist es nicht gescheiter, man sichert alles einfach doppelt (soll man ja sowieso, weil es ja meist Totalschaden gibt, dann hilft die zusätzliche Rendundanz auch nichts)

@all

Eine Frage, die ich nach wie vor nicht abgehakt habe, ist, ob auf der Festplatte beim Lesen oder auch beim Kopieren Fehler auftreten können, die nicht als solche erkannt und gemeldet werden. Dürfte eigentlich wegen dem CRC nicht sein, bzw. mit extrem geringer Wahrscheinlichkeit.... (ich meine damit ohne den zusätzlichen Einsatz aller möglichen Tools, einfach vom Betriebssystem her)


[Beitrag von cr am 07. Dez 2009, 17:50 bearbeitet]
VolkerLee
Hat sich gelöscht
#48 erstellt: 07. Dez 2009, 18:00
Also ich denke, wenn die Festplatte sich selbst über das SMART-Feature schon defekte Sektoren aussortiert hat, dann ist sie wirklich bald kaputt. Nur dann ist die Fehlerursache meistens mechanisch (Head-Crash, fehlerhafte Firmware der Platte führte zur Überlastung einzelner Sektoren usw).

Aber normale Lesefehler können auch Ursachen in inkonsistenten Dateisystemen oder in einer schleichenden Entmagnetisierung der Datenträger haben. Und die lassen sich leicht beheben. Wie lange aktuelle Terabyteplatten die Daten wirklich sicher speichern können werden wir erst in einem Jahrzehnt ziemlich sicher wissen.

Die Idee mit den Par-Files über Quickpar ist auch nicht schlecht. Nur hilft das halt nicht, wenn mehr fehlende Sektoren auftreten als Reparatursektoren zur Verfügung stehen. Und es ist ein gigantischer Aufwand für sagen wir 1,2 Mio Dateien und 2 TB Wiederherstellungsinformationen anzulegen. Dann doch besser gleich zweifache Sicherung auf zwei baugleiche Festplatten am RAID-Controller.


[Beitrag von VolkerLee am 07. Dez 2009, 18:06 bearbeitet]
VolkerLee
Hat sich gelöscht
#49 erstellt: 07. Dez 2009, 18:08

cr schrieb:
Gibt es eigentlich unter Festplattenoptionen einen Modus, dass dieselben Daten neu geschrieben werden?


Nein, aber Du kannst ein Image des Platteninhalts anlegen und es bei Bedarf dann wieder mounten / zurückkopieren.

Das wäre mit wenigen Handgriffen über Nacht erledigt.
Black_Seraph
Stammgast
#50 erstellt: 07. Dez 2009, 18:12

cr schrieb:

@Black Seraph

Einziger Nachteil: Der benötigte Speicherplatz steigt. Aber das nehme ich gerne in Kauf.

Wieviel ?


Das hängt davon ab was du einstellst.
Mehr Paritätsdateien = Höhere Sicherheit (Es können mehr fehlerhafte Dateien repariert werden) = Mehr Platzverbrauch.
Es spricht aber nichts dagegen die Paritätsdateien an anderer stelle zu sichern.
Eine 500GB-Festplatte mit deinen Daten, eine alte 80GB-Platte mit den Paritätsdateien (die du nur rausholst falls wirklich was kaputt gegangen ist) und man kann ziemlich beruhigt schlafen.
Natürlich schützt dieses Verfahren nicht gegen Technischen Totalschaden. Wenn ein Meteor auf deine Platte fällt ist auch mit Paritätsdateien (ausgenommen 100% Parität... ) nicht mehr viel zu machen. Aber das haben die meisten Lösungen gemein.

Schau dir ruhig mal Quickpar an. Ist umsonst im Netz zu bekommen, ich glaube sogar dass es open source ist.
Damit kann man Archive sichern und auch wieder herstellen.

Ein wenig Hintergrundinfo:
Die Methode der Paritätsdateien wird oft bei Verbindungen per UDP-Protokoll verwendet, da hier nicht jedes Bit auf korrekte Übertragung getestet wird. Somit ist eine schnellere Übertragung möglich als per TCP, aber man geht auch das Wagnis der fehlerhaften Übertragung ein. Hier helfen dann Paritätsdateien, die, falls nötig, nachgesendet werden können. So kann der Empfänger die Archive entpacken ohne alles erneut ziehen zu müssen.
Bei großen unkomprimierten Zeichnungen oder gar ganzen Linux-Distributionen ist das wirklich Gold wert
Wer im Usenet mit Dateien hantiert kennt Paritätsdateien meist sehr gut

Die einzige Möglichkeit Daten wirklich sicher und auf dauer zu sichern ist eine "richtige" Datensicherung.
Am Beispiel der RD1000 von Dell (Externe SATA-Module):
Die Daten verbleiben auf einer Festplatte und werden so oft wie möglich auf externe Medien reproduziert.
Hierfür eignen sich aber nur mehrfach beschreibbare Medien, da nach der eigentlichen Sicherung mit Hilfe von Checksummen die Daten überprüft werden. Sollten hier unterschiede auffallen, so wird die Datei erneut geschrieben.
Weiterhin müsste es mehr als ein Medium sein (zumindest 2), denn angenommen während der Sicherung fällt eine Kuh auf den PC, Festplatte und externes Medium sind dahin. Darum muss während der Sicherung ein weiteres Medium an einem anderen Ort aufbewahrt werden.

DVD-Rohlinge, egal welcher Güteklasse, scheiden hier definitiv aus, wenn man bedenkt dass ein DVD+RW-Rohling nach 50-maligem widerbeschreiben als bedenklich eingestuft werden muss.
Black_Seraph
Stammgast
#51 erstellt: 07. Dez 2009, 18:20

VolkerLee schrieb:
zweifache Sicherung auf zwei baugleiche Festplatten am RAID-Controller.


Das ist im Regelfall eine gute Lösung, aber als gepeinigter möchte ich dazu raten das Vorgehen bei Datenverlust zu proben!
Ich habe einmal, nach einem Festplatten-Totalausfall, die Sicherungsplatte an einen anderen Controler gehängt, der mir die Platte sofort in einen anderen Verbund gesteckt hat! Ergebnis: Die Sicherungsplatte wurde mit Paritätsdaten der zwei anderen angeschlossenen Platten überschrieben!

Ausserdem rate ich jedem dringend dazu den verwendeten Controler als Ersatzteil bereit zu haben! Denn alle Raid-varianten, abgesehen von Raid1, haben das Problem dass jeder Controler die Daten anders handhabt!
Festplatten aus einem Raid 0, 5, 10,raid1+5 etc. die an einem controler wunderbar funktionieren verweigern an einem anderen controler den Dienst.
Das betrifft teilweise auch Controler der gleichen Marke und sogar der gleichen Baureihe!
Dawicontrol z.b. hat häufiger diese Eigenheiten. der DC150 arbeitet anders als der DC154 und sind nicht kompatibel zueinander! Das kann einem dann echt den Tag versauen


[Beitrag von Black_Seraph am 07. Dez 2009, 18:22 bearbeitet]
Suche:
Gehe zu Seite: Erste Letzte |nächste|
Das könnte Dich auch interessieren:
Audiophile Ohrtropfen
referenzohr am 10.07.2006  –  Letzte Antwort am 26.07.2006  –  28 Beiträge
Der ultimative Entstörnetzstecker
gst am 05.12.2022  –  Letzte Antwort am 11.01.2023  –  88 Beiträge
Das ultimative Zubehör
sb11 am 05.02.2005  –  Letzte Antwort am 05.02.2005  –  2 Beiträge
Audiophile Sicherungsautomaten
boep am 29.07.2010  –  Letzte Antwort am 10.08.2010  –  86 Beiträge
Audiophile Spinner
Holzohr am 16.12.2005  –  Letzte Antwort am 02.09.2017  –  135 Beiträge
"ultimative Leitfähigkeit........." usw.. ;-) Oder doch?
adiclair am 02.01.2005  –  Letzte Antwort am 19.01.2005  –  19 Beiträge
Kabel und Kabelklang: Der ultimative Fragenkatalog
jruhe am 23.03.2004  –  Letzte Antwort am 29.03.2004  –  11 Beiträge
Der auf keinen Fall Ultimative Wissens-Thread
DamonDiG am 06.07.2008  –  Letzte Antwort am 07.08.2008  –  38 Beiträge
SUPER SOUND GEL- Der ultimative Soundzugewinn
Bigzonk am 05.08.2009  –  Letzte Antwort am 07.02.2012  –  53 Beiträge
Die audiophile SSD
zickzack am 22.12.2021  –  Letzte Antwort am 04.05.2022  –  6 Beiträge
Foren Archiv
2009

Anzeige

Produkte in diesem Thread Widget schließen

Aktuelle Aktion

Partner Widget schließen

  • beyerdynamic Logo
  • DALI Logo
  • SAMSUNG Logo
  • TCL Logo

Forumsstatistik Widget schließen

  • Registrierte Mitglieder926.001 ( Heute: 3 )
  • Neuestes Mitgliedcardiac
  • Gesamtzahl an Themen1.551.821
  • Gesamtzahl an Beiträgen21.555.224

Hersteller in diesem Thread Widget schließen