Die Foren-SW läuft ohne erkennbare Probleme. Sollte doch etwas nicht funktionieren, bitte gerne hier jederzeit melden und wir kümmern uns zeitnah darum. Danke!

Intel Quality SSD's S3700 / P3700 etc.

ESX(i)-taugliche Hardware, HCL .....

Moderatoren: irix, Dayworker

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Intel Quality SSD's S3700 / P3700 etc.

Beitragvon UrsDerBär » 15.02.2016, 18:26

Hallo Leute,

Bin ja ein Fan der Intel SSD's. Habe schon sehr viele der Serien 3700, 520 und X25E verbaut. In Servern, Maschinen und Arbeitsplatz-PC's. Habe noch keinen einzigen Ausfall erlebt. Weder bei Kunden bei mir.

Manche sind schon Jahre im Einsatz. Auch wenn die Writes im Vergleich zu anderen Firmen sicher nicht so intensiv sind, dass habe ich noch bei keinem Magnetplatten-Typ erlebt. Auch bei den Magnetplatten kaufe ich seit über 10 Jahren nur solche die auch in SAN-Lösungen Nahmhafter Hersteller verwendet werden. Egal ob Arbeitsplatz oder Server. Da sind aber immer wieder mal Ausfälle zu beklagen.

Jetzt frage ich mich, ist das Risiko bei diesen SSD's so lächerlich klein, dass ein RAID-Betrieb eigentlich gar keinen Sinn macht.

Bei einem Single-Betrieb könnte ich das Backup auch auf ne SSD schieben. Würde an meinen generellen Budgets nicht grossartig was ändern, die Wiederherstellungzeit aber nochmals deutlich verkürzen oder sogar gegen 0 tendieren.

Grüsse und vielen Dank für eure Meinungen

Guru
Beiträge: 2731
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 15.02.2016, 19:09

Ich hatte schon zwei Consumer-SSDs (OCZ Vertex) die sang- und klanglos abgeraucht sind - das Mainboard sagte nur noch "Welche Festplatte meinst du?".

Die Zeit des massenhaften Einsatzes und der statistisch steigenden Ausfälle liegt noch vor uns.

Jetzt schon von Sicherheit ohne RAID zu reden, halte ich für verfrüht.

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 15.02.2016, 19:48

Consumer-Teile durfte ich auch schon einige bei Bekannten tauschen. Die rauchen noch schneller ab als Consumer-HDD's. Nur mit dem Unterschied, dass man von HDD's meist doch noch die Daten rauskriegt. Daher weigere ich mich partout, irgendwas zu flicken, wenn nicht ne Topplatte als Ersatz reinkommt. Dürfen dann andere machen. Muss ja eh wieder ran wens ned tut. Aber das ist ein anderes Thema.

Mir geht es aber hier bewusst nur um das höherwertige Material von Intel. Von den Dingern habe ich schon viele verbaut - immer im RAID - und bis dato ist mir eben noch keine einzige kaputt gegangen während von den HDD's die ich zur gleichen Zeit verbaut habe, eben immer wieder mal was kaputt geht.

Aber eben, bis jetzt habe ich vielleicht auch nur Glück gehabt, daher wäre es interessant zu wissen, was andere für Erfahrungen mit eben solchen SSD's im Nicht-Extrems-betrieb gemacht haben.

King of the Hill
Beiträge: 13561
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 15.02.2016, 21:52

Zu SSDs vom Typ "OCZ Vertex" sag ich mal nur so viel, daß die damals weder eigene Chips noch Flash hatten und demzufolge alles zukaufen mußten. Inzwischen gehört OCZ ja zu Toshiba und damit sollte sich das wesentlich stabiler darstellen. Wer OCZ gern in Zahlen hat, sollte sich mal http://www.hardware.fr/articles/893-7/ssd.html ansehen.

Unabhängig davon nutzt die 520 zwar ebenfalls den Sandforce 2281-Controller wie die "OCZ Vertex" und viele andere SSDs, Intel kann sich aber aus seinem Joint-Venture IMFT mit Micron die besten Flash-Chips raussuchen. Von daher hatte Intel deutlich weniger Probleme mit der 520er Serie als andere Hersteller mit derselben Flash/Controller-Kombi.

SSDs sind mechanisch weniger anfällig als Spindeln und fallen daher aus diesem Grund eigentlich nicht mehr aus. Das sieht man auch an den deutlich gestiegenen Angaben zur MTBF. Allerdings kommt es immer wieder zu FW-Problemen und diese versauen damit die bessere Zuverlässigkeit. Wie bereits angemerkt, sind wir immer noch relativ weit am Anfang des massenhaften SSD-Einsatz. Wie sich die Statistik ändert, kann noch niemand voraussehen. Eines steht jedoch bereits heute fest, mit steigender Kapazität wird sich unweigerlich auch die Fehlerrate erhöhen, da die Flashzellen immer kleiner werden und dadurch auch die Löschzyklenanzahl immer weiter sinkt. Die Zellenanzahl erhöht sich mit steigender Kapazität zwar immer weiter und kann dadurch der sinkenden Löschzyklenanzahl begrenzt entgegenwirken, aber der Kostendruck zwingt die SSD-Hersteller zum weitläufigen Einsatz von Tripple- oder arbeiten bereits an Quadrupple-Zellen. Das wird die Fehlerraten deutlich ansteigen lassen. Intel verbaut ja bei seinen Server-Modellen nicht ohne Grund eine Spare-Area von fast 50 Prozent, wenn man sich mal die Tests diverser Medien wie Anandtech & Co ansieht. Das erklärt dann auch die hohen Preise.



Backups oder Images kennen und vor allem nutzen die wenigstens Endanwender. Die Computerzeitungen sind zwar voll davon, wie komfortabel das inzwischen zu erledigen ist, trotzdem gehen viele davon aus, daß sie schon nicht betroffen sein werden. SSDs seien doch so viel besser, da passiert schon nichts. In meinen Augen sind daher Single-SSDs in Consumer-Geräten völlig in Ordnung. Bei Consumer-SSDs muß man auch beachten, daß sich diese in einem Raid meist nicht vernünftig betreiben lassen, da diese bei der Schreib-Latenz, bis ein Write-IO wirklich abgeschlossen ist, bisweilen recht flexibel sind...


PS:
Was die MTBF bei SSDs bedeutet, wird sehr übersichtlich bei http://www.hardcoreware.net/mtbf-ssd-what-does-it-mean-for-you/ beschrieben. Die Kurzfassung ist, daß die MTBF inzwischen zu einem per Fuzzy-Logic berechnetem Wert verkommen, der im Endeffekt nichts mehr aussagt. Wie überzeugt ein SSD-Hersteller von seinem Produkt ist, kann man an der Angabe der TBW (Total Bytes Written) ablesen.

King of the Hill
Beiträge: 12942
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 15.02.2016, 23:05

Also als vor einiger Zeit die Distris befragt wurde so hies es das die Ruecklaufquote annaehernd den gleichen Prozentsatz haette wie die Festplatten. Natuerlich sind die Gruende bei SSDs ganz andere als bei den drehenden Spindeln.

Gruss
Joerg

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 16.02.2016, 08:54

@dayworker: Intel hatte neben den vielleicht besseren Chips auch die deutlich bessere Firmware als die Konkurrenten. Was schlechteres als die 520er habe ich gar nie verbaut. Auch bei Consumer-Geräten nicht. Mein Lehrgeld habe ich in der Vergangenheit zu genüge bezahlt mit Consumer-HDD's.

@irix: Gilt der Vergleich nur für die Top-Serien oder ganz allgemein?

Experte
Beiträge: 1337
Registriert: 25.04.2009, 11:17
Wohnort: Thüringen

Beitragvon Supi » 16.02.2016, 09:38

UrsDerBär hat geschrieben:@dayworker: Intel hatte neben den vielleicht besseren Chips auch die deutlich bessere Firmware als die Konkurrenten. Was schlechteres als die 520er habe ich gar nie verbaut.


Das trifft aber nur insoweit zu, wenn man die Intel 320er mal ausblendet mit dem 8MB Bug.
http://www.channelpartner.de/a/datenret ... ug,3041017

Die Qualität der SSD ist aus meiner persönlichen Erfahrung bei aktuellen Modellen (so seit 2014/15) nicht signifikant schlechter als bei HDD's.

Lehrgeld habe ich auch mit mehreren OCZ Octane/Petrol aber auch mit einer Sandisk Sandforce SF1200 SSD gezahlt. (letztere ging z.b. plötzlich nicht mehr)

Seitdem aber verschiedenste SSD verbaut in Desktops ohne Probleme.
Also Kingston V200, V100+, V300. 5x PNY SF2281, Transcend 370, 1x Intensto SSD, Sandisk SSD Plus, Crucial M4, Crucial MX100, Zotac SSD mit Phision Controller, Samsung 470, 830, 840, 850 Evo.

Unterschiede sind merkbar, aber jede war/ist schneller als vorherige HDD.
Aber ist sicher keine statistische Erhebung und Langzeiterfahrung schon gar nicht.

Unabhängig davon, wie gut die Intel S3700 sind, ist doch entscheidend, ob ich eine Ausfall/recoveryzeit für die Daten auf der SSD habe oder nicht.
Wenn ich das nicht kann, ist die Frage müßig. Auch wenn z.B. bei einem Raid-1 dann ggf nie eine Platte/SSD ausfällt, so ist das dann halt so.

Ähnlich wie bei einer Versicherung.

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 16.02.2016, 14:06

Ist halt so, dass ich keine Ahnung habe wie man eine so schnelle Festplatte sinnvoll in Verbindung mit einem RAID unter ESXi nutzen kann.

Bei den enormen Durchsatzzahlen der NVME-Discs fällt sogar die Storage-VM mit Software-RAID an zu husten. Da brauchts alleine für den virtuellen Netzwerkadapter der Storage VM schätzungsweise um die 4-6 Kerne im NFS-Betrieb bei ner 3GHZ CPU.
Bei HyperV wäre das einfacher da direkt möglich, schmeckt mir aber ned.

Auf ne Zweitmaschine auslagern und via iSCSI anzubinden macht auch wieder ne Menge der Performance zunichte.

Member
Beiträge: 48
Registriert: 19.12.2010, 18:26

Beitragvon gea » 16.02.2016, 23:24

UrsDerBär hat geschrieben:Ist halt so, dass ich keine Ahnung habe wie man eine so schnelle Festplatte sinnvoll in Verbindung mit einem RAID unter ESXi nutzen kann.
.


Im Prinzip wie eine normale Platte. Man hat die gleichen Vorteile (höhere Sicherheit, Sicherheit gegen Plattenausfall) und muss das gleiche beachten (Write hole Problem bei normalem Raid sofern man kein CopyOnWrite Dateisystem nimmt)

Besonders bei SSD ist zunächst die höhere Geschwindigkeit. Die Anforderungen an den Raidcontroller steigen damit. Eher am schnellsten ist neueres Softwareraid.

Dazu kommt ein SSD spezifisches Problem. Die Firmware verschiebt dauernd Daten im Hintergrund (Garbage Collection). Ein Stromausfall zum falschen Zeitpunkt kann da das Raid und/oder das Dateisystem ruinieren. Man sollte daher auf Powerloss Protection bei den SSD achten.

Neben DAS Storage mit einem Hardwareraid + BBU kann man unter ESXi auch ein ZFS SAN virtualisieren um damit Storage (generell und für ESXi via iSCSI/NFS) bereitzustellen. Mit ausreichend CPU und vor allem RAM ist das sehr schnell, sicher und komfortabel.

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 17.02.2016, 08:20

@gea: Das Problem ist auch weniger auf was ich achten muss bei den SSD's, nicht umsonst setze ich ausschliesslich auf das Top-Material. Am Anfang ausschliesslich SLC's. Und erst mit den 520er von Intel auch auf MLC's.

Mir geht es auch weniger um die Geschwindigkeit bzw. RAID-Erstellung mit "normalen" SSD's. SSD-RAID's mache ich seit Jahren, mittlerweile basieren fast alle meine Installationen auf produktiver Seite mit SSD's. Einfach weil meine Erfahrungen so gut sind. Auch Recovery sind Blitzschnell gemacht. Wenn ich da die Zeit auf meiner SAN oder den SSD Systemen von Kunden oder mir vergleiche, sind das Welten.

Darum geht es mir alles nicht, sondern:
1. Da ich bei diesen Discs noch keinerlei Ausfälle hatte (über 100 verbaut - Die SLC's schon ca. 7 Jahre): ob man RAID weglassen kann weil das Risiko evtl. enorm klein ist und ein Recovery allenfals genügt
2. Falls nein, wie man die enorme IOPS-Zahl der neuen top NVMe Discs überhaupt verarbeiten kann bei Nutzung von RAID
3. Man vielleicht sogar ein Continues Backup auf ne zweite solche SSD machen könnte bei gleichem Budget.

Der Flaschenhals bei NFS sind wie bereits vorher genannt, die CPU-Cyklen auf der virtuellen Netzwerkkarte. Bei Windows als Storage-VM kann man bereits mit einer Handvoll SATA DC3700 mehrere 3.2GHZ Kerne vollständig auslasten. Je mehr Kerne, desto mehr Speed. Bis ans Limit der SSDs. RAM-Bedarf ist hier sekundär, auch wenn natürlich Vorteilhafterweise etwas vorhanden sein sollte (Filesystem-Read-Cache).

Wenn ich nun zwei solcher NVMe DC3700 hernehme ergibt das nochmals einen enormen Speedzuwachs. Keine Ahnung wie der Verarbeitet werden soll.

Die effektive, maximale Übertragungsrate ist zwar nicht extremst wichtig für mich und meine Installationen, da zählt hauptsächlich die Latenz bzw. die IOP's bei tiefer Queue, aber bei grossen Filetransfers (Video, Grafik), Recovery oder Backup kann die SSD eben nicht ihre volle Wirkung entfalten. Auch die Recovery-Zeit wird unnötig begrenzt.

Da ich gerne Single CPU-Systeme verwende, möchte ich nicht mehr als 2 Kerne der Storage VM geben.


Wenn man das ganze auf ne separate Maschine auslagert vergibt man leider ne Menge der Latenz und Leistung im tiefen Queue-Bereich. Eigene SAS-Storages zu bauen wüsste ich jetzt nicht wie =)

Guru
Beiträge: 2731
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 17.02.2016, 08:54

Also wenn ich mal meine Gedanken dazu werfen darf: Was für Luxusprobleme!

@Urs: Deine SSDs sind extrem zuverlässig. Dann lass halt RAID weg - ist dann beim Ausfall eben ein totaler bis zur Recovery durch Restore. Das musst du doch einschätzen, ob das für dich und deine Auftraggeber O.K. ist.

Die Storage-VM kann gar nicht genug CPU-Power bekommen, um die IOs zu verarbeiten? Dann ist vielleicht das Konstrukt einer Storage-VM (das nebenbei gegen die K.I.S.S.-Regel verstößt) in dieser Hardware-Konstellation nicht sinnvoll?

In dem du durch Jahrzehnte Industriegeschichte optimierte Hardware-PCIe-Kommandos per Storage-VM auf die Ebene des OS anhebst, machst du aus dem alten Harddisk-Interface-IO-Bottleneck einen neuen Storage-VM-CPU-Bottleneck.

King of the Hill
Beiträge: 13561
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 17.02.2016, 18:43

Das das Harddisk-Interface-IO-Bottleneck durch die in immer mehr Bereichen eingesetzten SSDs weg ist, ist ja sehr erfreulich. Allerdings muß die CPU schon einiges an Leistung mitbringen, damit eine SSD überhaupt gesättigt werden kann. Selbst im Desktopbereich fällt mir immer wieder auf, wie stark die CPU-Belastung bereits beim einfachen Kopieren ansteigt.
Rein rechnerisch bedeuten Sata2 bei 300MB/s Schnittstellengeschwindigkeit eine IOPS-Zahl von 76,800 und bei Sata3 mit ihren 600MB/s sind bis zu 153,600 IOPS möglich. Intels DC-S3700 ist dort sowohl beim sequentiellen Lesen (bis zu 500MB/s) als auch beim Schreiben (bis zu 460MB/s) und bei den IOPS mit bis zu 75,000 bei wahlfreien 4KB-Lesezugriffen sowie bis zu 36,000 bei wahlfreien 4KB-Schreibzugriffen nicht mal die schnellste SSD. In meinen Augen wird mit NVMe-SSD die CPU-Belastung noch schlimmer und die CPU wird dort häufiger zum Bottleneck werden. Urs seine Beobachtungen mit 2 CPU-Kernen für seine Storage-VM kann ich nur bestättigen. Damit man die schnellen Sata3-SSD wirklich auch ausnutzen kann und ohne hierzu Zahlen präsentieren zu können, sind mM 2 Kerne bereits heute zu wenig. Solange jedoch nur kurze sequentielle oder wenige wahlfreie Zugriffe anstehen, bemerkt man eine eventuelle CPU-Limitierung überhaupt nicht.
Ich kann Urs schon verstehen, daß er möglichst viel aus seiner nicht sehr preiswerten HW herausholen will, ohne dafür exorbitant in CPU-Leistung investieren zu müssen. Ein Singlesocket ist ja kerntechnisch doch begrenzt und neben dem Storage bleibt dann nicht viel CPU-Leistung für den Rest übrig.

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 19.02.2016, 01:34

@dayworker: So siehts aus. Wenn ich was kaufe, möchte ich auch die Leistung nutzen. ;)

@thc: Am Ende läufts auf eine Eintrittswahrscheinlichkeit raus. Wenn eine Top-SSD bei moderaten Schreibwerten z.B. über eine vergleichbare Ausfallwahrscheinlichkeit wie das Mainboard einer normalen Dual-Controller-SAN verfügt, wäre eine RAID-Nutzung meiner Ansicht nach vielleich Perlen vor die Säue obwohl ichs ja bis dato dennoch mache.
Allfällige Design- oder Firmware-Fehler einer SSD würde wohl eh beide RAID-Partner ins Elend stürzen.

Verletzung KISS: Nun, kann man sehen wie man will. Ich persönlich finde ne Storage-VM mittlerweile sehr praktisch und vor allem extrem easy zu administrieren. Shares lassen sich auch anderen ESXi als Backup-Ziel zu Verfügung stellen, Dedupe ist nutzbar, unabhängig vom Host, fast unabhängig von der Hardware usw.

Bringt zudem eine Vereinfachung der Hardware-Struktur weil schlicht weniger Geräte vorhanden sind die ausfallen oder Fehlkonfiguriert weren können. Von daher alles eine Frage der Gewohnheit und der Sichtweise.

Luxusprobleme: Jetzt mal unabhängig vom Komfort und dem Willen das zu nutzen was man gekauft hat, sehr relativ wie ich finde. Nur schon bei Recovery und Backup-Szenarien würde man schon gerne die IOPS ausnützen können. Und wenn es nur dazu dient Backups parallel zur Nutzung ohne grossartige Einbussen zu ermöglichen. Egal ob die Einbussen nun durch CPU-Belastung oder IOPS-Beschränkung vorhanden sind.

Rücklaufzahlen:
Allgemeine Rücklaufzahlen von SSD's bringen leider nicht so viel wenn da auch Consumer-Teile oder niedrige Serien mit reinlaufen.
@irix: Waren das nur "gute" oder auch consumer-Teile dabei bei deinem Distri.

Daher wäre ich da eher an Zahlen oder eigenen Erfahrungswerten der TopSerien interessiert die auch im Enterprise-Segment verwendung finden. Nach Möglichkeit etwas aufgesplittet nach Nutzungsprofil. Eine Write-Cache-SSD auf ner SAN in nem fleissig genutzten Mailserver von 1000 Usern ist sicher zügiger am Ende - weil eben tatsächlich die Anzahl Writes erschöpft ist - als eine die als OS-System-Disc für verschiedene Server herhält.

Also z.B. die DC-Serien von Intel, etwas beschränkt die 520, SuperIO, Micron p320 usw.

Guru
Beiträge: 2731
Registriert: 23.02.2012, 12:26

Beitragvon ~thc » 19.02.2016, 08:04

@Urs: Ich will dir hier nichts aus- oder einreden. Wenn du mit dem Konstrukt einer SSD-RAID-Storage-VM gut auskommst und du und deine Auftraggeber zufrieden sind, ist doch alles bestens (Das meine ich ehrlich - ohne Ironie).

Für mich ist beeindruckende Storage- und damit Backup- und Restore-Leistung im ESXi-Alltag völlig irrelevant. Ich richte VMs einmal ein und dann laufen sie - fertig. Als Backupstrategie reicht mir ein Coldclone alle paar Jahre völlig (z.B. vor/nach einem größeren Update). Die wichtigen Daten (meiner Auftraggeber) sichere ich separat. VMs behandle ich nicht wie Daten, sondern wie PCs. Das kann man altmodisch oder altbacken finden - meine Auftraggeber sind mit der Leistung und Verfügbarkeit mehr als zufrieden - und das zählt.

Ja, wir sind uns einig, dass vieles im Bereich der Administration eine Frage des Geschmacks, der Gewohnheit und den "Stils" ist.

Aber wenn du damit haderst, dass deine Storage-VM ins Schwitzen kommt, weil die NVMe-SSDs so viele IOs liefern, dass die zwei Kerne, die du maximal spendieren willst, nicht ausreichen, um die Leistung weiterzugeben - dann stößt das Konzept deiner Storage-VM eben an seine Grenze. Dann gehen maximale IOs und nicht mehr als zwei Kerne eben nicht zusammen.

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 23.02.2016, 15:28

Da gebe ich Dir durchaus recht, dass die Grenze erreicht ist. Die Frage dürfte dann sein, wie bekomme ich ein RAID mit einer NVMe Disc überhaupt anders hin als mit einer Storage-VM?

Wenn ich nun RAID nicht nutze, könnte ich direkt verwenden...

King of the Hill
Beiträge: 12942
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 23.02.2016, 16:18

UrsDerBär hat geschrieben:Da gebe ich Dir durchaus recht, dass die Grenze erreicht ist. Die Frage dürfte dann sein, wie bekomme ich ein RAID mit einer NVMe Disc überhaupt anders hin als mit einer Storage-VM?

Wenn ich nun RAID nicht nutze, könnte ich direkt verwenden...


Die neuen P3608 machen ein RAID...... sie machen ein RAID0 ;)

Ich sehe da erstmal keine Loesung weil Nutanix, VSAN und co. halten es ja auch nicht anders. Im Falle von Nutanix gibts halt eine ControllerVM mit der passenden Anzahl an vCPUs.

SCNR,
Joerg

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 02.03.2016, 14:36

@irix: Hast ne Ahnung ob das bei Deinem Distri Rückläufer von Enterprise Discs oder inklusive Consumer Discs waren?

Ansonsten bleibt wohl nur folgendes:
1. Kein Raid und "No-Risk-No-Fun" (Continues Backup oder Asyn-Replikat wäre nicht verkehrt)
2. Genügend Cores
3. HyperV (brrrrrr)

King of the Hill
Beiträge: 12942
Registriert: 02.08.2008, 15:06
Wohnort: Hannover/Wuerzburg
Kontaktdaten:

Beitragvon irix » 02.03.2016, 17:01

Nein ist auch zulange her.

Aber aktuell gibts doch da was... und zwar hat Google eine Auswertung machen lassen und unter https://www.usenix.org/conference/fast1 ... /schroeder kann man sie wohl nachlesen bzw. es war letzte Woche auf heise.de und heute auf golem.de und co.

Gruss
Joerg

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 03.03.2016, 10:59

Vielen Dank für das Dokument. Sehr interessant zu lesen. Räumt ein klein wenig mit Vorurteilen gegenüber MLC auf, zementiert aber doch auch einige Bedenken bezüglich der immer kleineren Fertigungsgrösse der Silikonchips.

Etwas schade finde ich, dass keinerlei Bezug zur Umgebungs- bzw. Chiptemperatur hergestellt wurde. Würde mich doch sehr interessieren wie gross der Einfluss auf die Chiplebensdauer ist. Bei USB-Flash-Chips ist die Temperatur - zumindest subjektiv (habe zu wenig Daten) - ein ziemlich entscheidender Faktor.

Scheint wie auch von Dayworker schon angemerkt wurde, schon sehr wichtig zu sein, wer die guten Chips der Hersteller bekommt mit tieferen Factory-Bad-Blocks. Was eventuell teilweise erklärt warum die besseren Intel-Teile eine relativ niedrige Ausfallrate haben. Wohl einfach, weil sie von Micron die besserne Chips erhalten als die Konkurrenz.


Sehr interessant auch der Vergleich mit den HDD's. Zwar mussten weniger ausgetauscht werden, dafür gabs aber viel mehr Bad-Blocks als bei Magnet-Discs.


Conclusion für mich: Da die Bad-Blocks doch deutlich wahrscheinlicher sind als bei Magnetdiscs, werde ich mich hüten auf RAID zu verzichten auch wenn die Drives an sich im Schnitt länger leben.

King of the Hill
Beiträge: 13561
Registriert: 01.10.2008, 12:54
Wohnort: laut USV-Log am Ende der Welt...

Beitragvon Dayworker » 03.03.2016, 17:20

UrsDerBär hat geschrieben:...zementiert aber doch auch einige Bedenken bezüglich der immer kleineren Fertigungsgrösse der Silikonchips.
Bild
...und ich dachte immer, die Chips bestehen aus Silizium...

Experte
Beiträge: 1362
Registriert: 30.03.2009, 17:13

Beitragvon UrsDerBär » 04.03.2016, 08:38

Oooops :D

Eigentlich ja aus Kartofflen :D


Zurück zu „Hardware“

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 14 Gäste