Forum: PC Hard- und Software WD My Passport 4TB mit ext4


von Andreas B. (bitverdreher)


Lesenswert?

Hi,
ich bin gerade dabei, meine gerade erstandene externe FP einzurichten. 
Es ist eine der bunten WD Passport mit 4TB und USB3. Intern haben diese 
Dinger den  USB controller schon auf der FP.
Ich bin relativ schnell von den vorformatierten NTFS zu ext4 gewechselt, 
weil NTFS auf meinem PC (Mint 17.3) zu langsam war (Datentransfer <50% 
gegenüber ext4).
Jetzt habe ich das Problem, daß die Platte bei beschreiben mit >50% der 
Kapazität, sprich 2TB, Fehler beim fsck bringt.
ext4 sollte ja eigentlich keine Probleme mit 4TB haben aber kann es sein 
daß die FW dieser Platte da Probleme macht?
Bin jetzt gerade dabei, die Partition auf 2TB zu verkleinern und eine 2. 
Partition einzurichten. Schön ist das nicht....
FAT32 möchte ich nicht verwenden, da ich doch einige Dateien mit >4GB 
drauf habe.
Hat jemand eine Idee dazu wie man das besser lösen könnte? Ist das ein 
Problem von USB/ext4 oder von WD generell.

Gruß
Andreas

von Vka (Gast)


Lesenswert?

Da klemmt was im Dateisystem, das sollte absolut kein Problem damit 
haben. Poste mal die Fehlermeldung!
Zu wenig Inodes angelegt?

von (prx) A. K. (prx)


Lesenswert?

Du hast die Disk auch immer brav dismounted, bevor du sie abgezogen 
hast?

von Rolf M. (rmagnus)


Lesenswert?

Andreas B. schrieb:
> Jetzt habe ich das Problem, daß die Platte bei beschreiben mit >50% der
> Kapazität, sprich 2TB, Fehler beim fsck bringt.

Welche Fehler!?

Andreas B. schrieb:
> Hat jemand eine Idee dazu wie man das besser lösen könnte? Ist das ein
> Problem von USB/ext4 oder von WD generell.

Manche USB-Controller machen bei Platten mit 4k-Sektoren merkwürdige 
Dinge. Allerdings war das bei mir keine Platte, die direkt USB hatte, 
sondern so ein USB-Cradle, wo man die Platte direkt oben reinsteckt. An 
die damit geschriebenen Daten kam ich nachher direkt am SATA-Port nicht 
mehr ran.
Vielleicht hat dein Problem auch was mit 512B/4k-Sektoren zu tun. Bei 
512-Byte-Sektoren ist nämlich genau bei 2 TB Schluss.

von Andreas B. (bitverdreher)


Lesenswert?

Vka schrieb:
> Da klemmt was im Dateisystem, das sollte absolut kein Problem damit
> haben. Poste mal die Fehlermeldung!
> Zu wenig Inodes angelegt?

Ich habe einfach mit der GUI (gnome-disks) formatiert. Keine Ahnung wie 
er die inodes da angelegt hat.
Fehlermeldungen habe ich hunderte gehabt (falsche inodes).
Es trat erst bei einer bestimmten Füllmenge der FP auf.

A. K. schrieb:
> Du hast die Disk auch immer brav dismounted, bevor du sie abgezogen
> hast?

Klar. Ich habe es auch mehrmals getestet. Sobald ich wieder mehr als 2TB 
drauf schrieb bekam ich wieder Fehler. Nahc dem Reparieren waren die 
Daten die ich zuletzt geschrieben hatte, weg (bzw. die Fragmente 
namenlos in den lost Order verschoben).

: Bearbeitet durch User
von Andreas B. (bitverdreher)


Lesenswert?

Rolf M. schrieb:

> Vielleicht hat dein Problem auch was mit 512B/4k-Sektoren zu tun. Bei
> 512-Byte-Sektoren ist nämlich genau bei 2 TB Schluss.

Ich habe gelesen, daß die Sektorengröße, die man bei USB Platten anlegt, 
nicht unbedingt mit der tatsächlichenn  Sektorgröße zu tun hat.

von Rolf M. (rmagnus)


Lesenswert?

Ja, darauf will ich hinaus. Teilweise haben das auch SATA-Platten 
gemacht, aber bei USB gibt's das auch. Statt der realen 4k-Sektoren 
werden dem System fake-Sektoren mit 512 Bytes Größe vorgegaukelt. Wenn 
das System nun nur auf 2 hoch 32 Sektoren zugreifen kann, landen wir 
dann bei 2 TB Maximalgröße (4 Milliarden mal ein halbes kByte). Deshalb 
mein Verdacht, dass es damit zu tun haben könnte.

von Andreas B. (bitverdreher)


Angehängte Dateien:

Lesenswert?

Rolf M. schrieb:
> Ja, darauf will ich hinaus. Teilweise haben das auch SATA-Platten
> gemacht, aber bei USB gibt's das auch. Statt der realen 4k-Sektoren
> werden dem System fake-Sektoren mit 512 Bytes Größe vorgegaukelt. Wenn
> das System nun nur auf 2 hoch 32 Sektoren zugreifen kann, landen wir
> dann bei 2 TB Maximalgröße (4 Milliarden mal ein halbes kByte). Deshalb
> mein Verdacht, dass es damit zu tun haben könnte.

Sieht fast so aus. Logische Blöcke 512 Bytes. Physische Blöcke 4096 
Bytes. Siehe Anhang aus dem syslog.
Kannm man eine andere Blockgröße irgendwie erzwingen?

von Rolf M. (rmagnus)


Lesenswert?

1
Dec 27 16:54:24 andy-H67M-D2-B3 kernel: [  130.741112] sd 6:0:0:0: [sdh] Very big device. Trying to use READ CAPACITY(16).
2
Dec 27 16:54:24 andy-H67M-D2-B3 kernel: [  130.741295] sd 6:0:0:0: [sdh] 7813969920 512-byte logical blocks: (4.00 TB/3.64 TiB)

"Very big device"... hm.

Was anderes, was mir einfallen würde:
Hast du die Platte selber partitioniert? Wenn ja, mit welchem 
Partitionstabellen-Format? Die klassischen DOS-Partitionstabellen können 
nämlich auch nicht mehr als 2TB.

von Andreas B. (bitverdreher)


Lesenswert?

Rolf M. schrieb:

> Hast du die Platte selber partitioniert? Wenn ja, mit welchem
> Partitionstabellen-Format? Die klassischen DOS-Partitionstabellen können
> nämlich auch nicht mehr als 2TB.

Ja, wie gesagt, einfach mit gnome-disks ("Laufwerke") partitioniert und 
formatiert, im Glauben daß er das dann schon richtig macht. Fdisk kann 
ja nur bis 2TB.
Ich denke ich mache nochmal alles platt und formatiere nochmal mit 
gparted. Mal schauen was der mit dieser Platte veranstaltet.

von (prx) A. K. (prx)


Lesenswert?

Probier mal das. Nicht dass die HDDs das mittlerweile auch machen:
https://www.heise.de/download/product/h2testw-50539

von Andreas B. (bitverdreher)


Lesenswert?

A. K. schrieb:
> Probier mal das. Nicht dass die HDDs das mittlerweile auch machen:
> https://www.heise.de/download/product/h2testw-50539

Kann ich mir bei WD eigentlich nicht vorstellen. Die Platte wurde in J 
gekauft.
Außerdem scheint sie ja wirklich mit 512 byte Blöcken formatiert zu 
sein.

von Andreas B. (bitverdreher)


Lesenswert?

HI,
jetzt habe ich mal mit gparted händisch wie folgt partitioniert.
> sudo parted /dev/sdh
dann in Parted:
(parted) mklabel gpt
Warnung: Die bestehende Partitionstabelle und alle Daten auf /dev/sdh 
werden gelöscht. Wollen Sie fortfahren?
Ja/Yes/Nein/No? yes
(parted) unit TB
(parted) mkpart primary 0.00TB 4.00TB
(parted) print
Modell: WD My Passport 25E2 (scsi)
Festplatte  /dev/sdh:  4,00TB
Sektorgröße (logisch/physisch): 512B/4096B
Partitionstabelle: gpt

Nummer  Anfang  Ende    Größe   Dateisystem  Name     Flags
 1      0,00TB  4,00TB  4,00TB  ext4         primary

(parted) quit
Informationen: Möglicherweise müssen Sie /etc/fstab anpassen.

dann:
> sudo mkfs.ext4 -b 2048 /dev/sdh1

stecke ich die Platte wieder ein nachdem er fertig ist dann zeigt 
syslog:
Dec 27 23:33:12 andy-H67M-D2-B3 kernel: [24058.059326] usb-storage 
4-1:1.0: USB Mass Storage device detected
Dec 27 23:33:12 andy-H67M-D2-B3 kernel: [24058.059559] scsi host12: 
usb-storage 4-1:1.0
Dec 27 23:33:13 andy-H67M-D2-B3 kernel: [24059.060304] scsi 12:0:0:0: 
Direct-Access     WD       My Passport 25E2 4004 PQ: 0 ANSI: 6
Dec 27 23:33:13 andy-H67M-D2-B3 kernel: [24059.060716] scsi 12:0:0:1: 
Enclosure         WD       SES Device       4004 PQ: 0 ANSI: 6
Dec 27 23:33:13 andy-H67M-D2-B3 kernel: [24059.064269] sd 12:0:0:0: 
Attached scsi generic sg8 type 0
Dec 27 23:33:13 andy-H67M-D2-B3 kernel: [24059.064443] ses 12:0:0:1: 
Attached Enclosure device
Dec 27 23:33:13 andy-H67M-D2-B3 kernel: [24059.064543] ses 12:0:0:1: 
Attached scsi generic sg9 type 13
Dec 27 23:33:13 andy-H67M-D2-B3 kernel: [24059.067884] sd 12:0:0:0: 
[sdh] Spinning up disk...
Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24060.071094] ....ready
Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.083346] sd 12:0:0:0: 
[sdh] Very big device. Trying to use READ CAPACITY(16).
Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.083567] sd 12:0:0:0: 
[sdh] 7813969920 512-byte logical blocks: (4.00 TB/3.64 TiB)
Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.083570] sd 12:0:0:0: 
[sdh] 4096-byte physical blocks
Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.084569] sd 12:0:0:0: 
[sdh] Write Protect is off
Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.084572] sd 12:0:0:0: 
[sdh] Mode Sense: 47 00 10 08
Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.085580] sd 12:0:0:0: 
[sdh] No Caching mode page found
Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.085584] sd 12:0:0:0: 
[sdh] Assuming drive cache: write through
Dec 27 23:33:17 andy-H67M-D2-B3 kernel: [24063.086059] sd 12:0:0:0: 
[sdh] Very big device. Trying to use READ CAPACITY(16).
Dec 27 23:33:18 andy-H67M-D2-B3 kernel: [24063.172591]  sdh: sdh1
Dec 27 23:33:18 andy-H67M-D2-B3 kernel: [24063.173273] sd 12:0:0:0: 
[sdh] Very big device. Trying to use READ CAPACITY(16).
Dec 27 23:33:18 andy-H67M-D2-B3 kernel: [24063.175360] sd 12:0:0:0: 
[sdh] Attached SCSI disk
Dec 27 23:33:18 andy-H67M-D2-B3 kernel: [24063.805805] EXT4-fs (sdh1): 
recovery complete
Dec 27 23:33:18 andy-H67M-D2-B3 kernel: [24063.806149] EXT4-fs (sdh1): 
mounted filesystem with ordered data mode. Opts: (null)
Dec 27 23:33:18 andy-H67M-D2-B3 udisksd[2887]: Mounted /dev/sdh1 at 
/media/andy/132ea2b1-0d84-41a9-a91a-39413e06bb09 on behalf of uid 1000
Dec 27 23:33:20 andy-H67M-D2-B3 kernel: [24065.343951] sd 12:0:0:0: 
[sdh] tag#0 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Dec 27 23:33:20 andy-H67M-D2-B3 kernel: [24065.343958] sd 12:0:0:0: 
[sdh] tag#0 Sense Key : Illegal Request [current]
Dec 27 23:33:20 andy-H67M-D2-B3 kernel: [24065.343962] sd 12:0:0:0: 
[sdh] tag#0 Add. Sense: Invalid command operation code
Dec 27 23:33:20 andy-H67M-D2-B3 kernel: [24065.343967] sd 12:0:0:0: 
[sdh] tag#0 CDB: Write same(16) 93 08 00 00 00 00 16 40 59 00 00 00 10 
00 00 00
Dec 27 23:33:20 andy-H67M-D2-B3 kernel: [24065.343970] 
blk_update_request: critical target error, dev sdh, sector 373315840

Der Drecksack hat immer noch 512 byte logische Blöcke. Was nun?
Der letzte Fehler ist auch etwas merkwürdig.

von Rolf M. (rmagnus)


Lesenswert?

Andreas B. schrieb:
>> sudo mkfs.ext4 -b 2048 /dev/sdh1

Hat es einen bestimmten Grund, dass du explizit eine Blockgröße 
vorgibst?

> Der Drecksack hat immer noch 512 byte logische Blöcke. Was nun?

Natürlich hat er die. Die kannst du höchstens mit irgendwelchen Jumpern 
verstellen, wenn überhaupt. Es ging ja nur darum, dass deine 
Partitionstabelle auch damit klar kommt.

> Der letzte Fehler ist auch etwas merkwürdig.

Ja. Kannst du mal die SMART-Werte auslesen? Sind da irgendwelche 
Auffälligkeiten zu sehen?

von Andreas B. (bitverdreher)


Lesenswert?

Rolf M. schrieb:
> Andreas B. schrieb:
>>> sudo mkfs.ext4 -b 2048 /dev/sdh1
>
> Hat es einen bestimmten Grund, dass du explizit eine Blockgröße
> vorgibst?
>
Ja, weil man mit 512 byte Blöcken nur 2TB adressieren kann. So hatte ich 
das zumindest gelesen.

>> Der Drecksack hat immer noch 512 byte logische Blöcke. Was nun?
>
> Natürlich hat er die. Die kannst du höchstens mit irgendwelchen Jumpern
> verstellen, wenn überhaupt. Es ging ja nur darum, dass deine
> Partitionstabelle auch damit klar kommt.
>
>> Der letzte Fehler ist auch etwas merkwürdig.
>
> Ja. Kannst du mal die SMART-Werte auslesen? Sind da irgendwelche
> Auffälligkeiten zu sehen?

Nein, die sahen gut aus.

Ich bin jetzt gerade wieder dabei, die Platte voll zu kopieren. 
Vielleicht geht es jetzt, da ich jetzt eine GUID partition verwende. Ich 
hoffe mal daß die mit 512 Byte Blöcken zurecht kommt.

von (prx) A. K. (prx)


Lesenswert?

Andreas B. schrieb:
> Ja, weil man mit 512 byte Blöcken nur 2TB adressieren kann. So hatte ich
> das zumindest gelesen.

Nö. Nur die alte Partitionierungstechnik macht dann schlapp und es wird 
eine GPT Partitionierung fällig.

: Bearbeitet durch User
von Andreas B. (bitverdreher)


Lesenswert?

Ja, dann hoffe ich mal, daß es mit der GUID Partition funktioniert.
Melde mich dann morgen.

von Rolf M. (rmagnus)


Lesenswert?

Andreas B. schrieb:
> Rolf M. schrieb:
>> Andreas B. schrieb:
>>>> sudo mkfs.ext4 -b 2048 /dev/sdh1
>>
>> Hat es einen bestimmten Grund, dass du explizit eine Blockgröße
>> vorgibst?
>>
> Ja, weil man mit 512 byte Blöcken nur 2TB adressieren kann. So hatte ich
> das zumindest gelesen.

mkfs.ext4 kann laut manpage nur 1k, 2k oder 4k große Blöcke. Wenn man 
nichts angibt, versucht eine Automatik basierend auf der Größe des 
Filesystems und auf deinen Angaben zur gewünschten Nutzungsart (sofern 
du welche gemacht hast) zu erkennen, was davon am besten ist.

von bastel_ (Gast)


Lesenswert?

Kannst ja das Filesystem mal direkt auf dem Device ohne 
Partitionstabelle erzeugen. Wenn es dann geht, liegt's daran.

von (prx) A. K. (prx)


Lesenswert?

Rolf M. schrieb:
>> Ja, weil man mit 512 byte Blöcken nur 2TB adressieren kann. So hatte ich
>> das zumindest gelesen.
>
> mkfs.ext4 kann laut manpage nur 1k, 2k oder 4k große Blöcke.

Könnte es sein, dass hier Filesystem-Blöcke und Disk-Sektoren munter 
durcheinander gehen? Die haben nämlich nichts miteinander zu tun. Ausser 
dass ein Filesystem-Block garantiert nicht kleiner als ein Disk-Sektor 
ist.

von Rolf M. (rmagnus)


Lesenswert?

A. K. schrieb:
> Könnte es sein, dass hier Filesystem-Blöcke und Disk-Sektoren munter
> durcheinander gehen? Die haben nämlich nichts miteinander zu tun.

Ja, deshalb hatte ich mich ja gewundert, dass bei mkfs.ext4 das -b 
angegeben war. Sollte aber kein Problem sein.

> Ausser dass ein Filesystem-Block garantiert nicht kleiner als ein Disk-
> Sektor ist.

Wobe "Disk-Sektor" in dem Fall wiederum ein logischer Sektor und nicht 
etwa ein physikalischer ist. Die haben ja leider auch nichts miteinander 
zu tun.

von Peter M. (r2d3)


Lesenswert?

Hallo Andreas,

Andreas B. schrieb:
> Hi,
> ich bin gerade dabei, meine gerade erstandene externe FP einzurichten.
> Es ist eine der bunten WD Passport mit 4TB und USB3. Intern haben diese
> Dinger den  USB controller schon auf der FP.
> Ich bin relativ schnell von den vorformatierten NTFS zu ext4 gewechselt,

Hier fehlen die Details zum Wechsel. Eventuell hast Du bei Deiner 
Verfahrensweise eine GPT-Partition gelöscht und eine MBR-Partition 
erzeugt.

> weil NTFS auf meinem PC (Mint 17.3) zu langsam war (Datentransfer <50%
> gegenüber ext4).

Das klingt eher wie ein Alignment-Problem. Wenn Platten mit 4k-Sektoren 
512 Bytes nach außen emulieren, sollten die Partitionsränder 
überlappungsfrei auf dem Anfang der 4K-Sektoren liegen, weil ansonsten 
die Festplatte beim Schreiben der Sektoren den betroffenen Sektor 
komplett einlesen muss, um sie erst dann wegzuschreiben.

> Jetzt habe ich das Problem, daß die Platte bei beschreiben mit >50% der
> Kapazität, sprich 2TB, Fehler beim fsck bringt.

Klingt nach 4k-Sektoren mit Emulation von Sektoren einer Länge 512 
Bytes!

> ext4 sollte ja eigentlich keine Probleme mit 4TB haben aber kann es sein
> daß die FW dieser Platte da Probleme macht?

Nein. Wenn die Platte nach außen Sektoren mit 512 Byte Länge zeigt, 
kannst Du nur Partitionen mit 2^32*512 Bytes maximal schaffen, weil die 
Felder in der MBR-Struktur für Startsektor und Länge jeweils nur 4 Bytes 
(32 Bit) vorsehen.

> Bin jetzt gerade dabei, die Partition auf 2TB zu verkleinern und eine 2.
> Partition einzurichten. Schön ist das nicht....

Das könnte gehen, ist aber unschön.

> FAT32 möchte ich nicht verwenden, da ich doch einige Dateien mit >4GB
> drauf habe.

FAT32 sollte man vermeiden, wenn es geht.

> Hat jemand eine Idee dazu wie man das besser lösen könnte? Ist das ein
> Problem von USB/ext4 oder von WD generell.

Nein. Du brauchst nur das GPT-Format anstelle des MBR-Formats.
Eventuell ist das Alignment-Problem damit gleich mit gelöst.

Gruß
Peter

von Andreas B. (bitverdreher)


Lesenswert?

Peter M. schrieb:
> Hallo Andreas,
>
> Andreas B. schrieb:
>> Hi,
>> ich bin gerade dabei, meine gerade erstandene externe FP einzurichten.
>> Es ist eine der bunten WD Passport mit 4TB und USB3. Intern haben diese
>> Dinger den  USB controller schon auf der FP.
>> Ich bin relativ schnell von den vorformatierten NTFS zu ext4 gewechselt,
>
> Hier fehlen die Details zum Wechsel. Eventuell hast Du bei Deiner
> Verfahrensweise eine GPT-Partition gelöscht und eine MBR-Partition
> erzeugt.
Möglicherweise. Wie sie vorher genau partitioniert war, kann ich jetzt 
nicht mehr nachvollziehen. Meine ext4 danach war jeden Falls keine GUID 
Partition.

>
>> weil NTFS auf meinem PC (Mint 17.3) zu langsam war (Datentransfer <50%
>> gegenüber ext4).
>
> Das klingt eher wie ein Alignment-Problem. Wenn Platten mit 4k-Sektoren
> 512 Bytes nach außen emulieren, sollten die Partitionsränder
> überlappungsfrei auf dem Anfang der 4K-Sektoren liegen, weil ansonsten
> die Festplatte beim Schreiben der Sektoren den betroffenen Sektor
> komplett einlesen muss, um sie erst dann wegzuschreiben.

Das würde heißen, daß die Platte standardmäßig nicht korrekt 
partitioniert war. Kann ich mir nicht so recht vorstellen.

>
>> Jetzt habe ich das Problem, daß die Platte bei beschreiben mit >50% der
>> Kapazität, sprich 2TB, Fehler beim fsck bringt.
>
> Klingt nach 4k-Sektoren mit Emulation von Sektoren einer Länge 512
> Bytes!
>
>> ext4 sollte ja eigentlich keine Probleme mit 4TB haben aber kann es sein
>> daß die FW dieser Platte da Probleme macht?
>
> Nein. Wenn die Platte nach außen Sektoren mit 512 Byte Länge zeigt,
> kannst Du nur Partitionen mit 2^32*512 Bytes maximal schaffen, weil die
> Felder in der MBR-Struktur für Startsektor und Länge jeweils nur 4 Bytes
> (32 Bit) vorsehen.

GPT sollte das schaffen.

>> Bin jetzt gerade dabei, die Partition auf 2TB zu verkleinern und eine 2.
>> Partition einzurichten. Schön ist das nicht....
>
> Das könnte gehen, ist aber unschön.

stimmt, daher habe ich das wieder abgebrochen und erst mal mit einer GPT 
versucht.

>> FAT32 möchte ich nicht verwenden, da ich doch einige Dateien mit >4GB
>> drauf habe.
>
> FAT32 sollte man vermeiden, wenn es geht.

stimmt auch, obwohl: Bei USB Sticks mache ich das noch.

>> Hat jemand eine Idee dazu wie man das besser lösen könnte? Ist das ein
>> Problem von USB/ext4 oder von WD generell.
>
> Nein. Du brauchst nur das GPT-Format anstelle des MBR-Formats.
> Eventuell ist das Alignment-Problem damit gleich mit gelöst.

Hoffentlich. Die Kopiersession hat gerade wieder gestartet.

von Andreas B. (bitverdreher)


Angehängte Dateien:

Lesenswert?

Hmm, jetzt habe ich die Plattte mal auf ca. 2.7TB gefüllt.
Jetzt kommen beim einstecken wieder Fehler im syslog (Anhang)

>sudo fsck.ext4 -n /dev/sdc1 > fsck.log (Anhang)
liefert mir jede Menge Fehler.

Ich habe jetzt mal
sudo smartctl -t long -d sat /dev/sdc
gestartet. Das dauert jetzt allerdings erst einmal 9h.

Der short Test brachte keine Fehler.

sudo smartctl -a -d sat /dev/sdc > smartctl.txt (Anhang) sieht auch gut 
aus.
Das Ganze passiert erst, wenn die Platte zu mehr als die Hälfte gefüllt 
wird.


> sudo gdisk /dev/sdc -l
GPT fdisk (gdisk) version 0.8.8

Partition table scan:
  MBR: protective
  BSD: not present
  APM: not present
  GPT: present

Found valid GPT with protective MBR; using GPT.
Disk /dev/sdc: 7813969920 sectors, 3.6 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): 73C53753-6290-4AC0-9F4D-05DA7A63B3CD
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 7813969886
Partitions will be aligned on 2048-sector boundaries
Total free space is 2014 sectors (1007.0 KiB)

Number  Start (sector)    End (sector)  Size       Code  Name
   1            2048      7813969886   3.6 TiB     8300  Linux 
filesystem

So scheint das ja ok zu sein.

Vielleicht sollte ich den Heise Test doch mal durchlaufen lassen. Da 
wäre aber schon ein starkes Stück.

Noch Ideen?

von oszi40 (Gast)


Lesenswert?

Über 2 TB werden andere Partitionstabellen verwendet (GPT statt MBR)
https://de.wikipedia.org/wiki/GUID_Partition_Table

Andreas B. schrieb:
> Heise Test

Schon mal eine gute Idee. Jedenfalls würde ich dieser Platte nie 
wertvolle Daten anvertrauen, bevor sie ich sie nicht 1x grüüündlich 
formatiert oder vollgeschrieben hätte. Geduld! Es wäre nicht der 1.Fall, 
wo später ein Fehler erst weiter hinten auffällt

von Andreas B. (bitverdreher)


Lesenswert?

Mir fiel noch ein daß der Heise Test ja ein Windows Programm ist. Die 
Linux Alternative wäre dann F3. Das löscht mir dann allerdings wieder 
die ganze Platte. Es dauert halt ewig, die Platte wieder vollzumachen.
Merkwürdig ist aber schon, daß scheinbar alles gut aussieht, wenn man 
mit dem Browser das Dateisystem durchforstet. Auch später (nach 2TB) und 
anfangs angelegte Dateien sehen scheinbar gut aus. Erst wenn ich mit 
fsck.ext4 "repariere", dann fehlen anschließend Dateien.

von ich (Gast)


Lesenswert?

Ext4 sollte zwar auch problemlos damit zurechtkommen, aber ich bevorzuge 
für große Partitionen seit jeher XFS. Früher war es besser geeignet, 
heute zumindest nicht schlechter.
Aber auch da gilt: besser erstmal die Platte prüfen.

von Andreas B. (bitverdreher)


Lesenswert?

OK, dann höre ich mal auf Euch, obwohl das bei einer neuen Platte schon 
sehr merkwürdig wäre.
Ich habe jetzt mal 1.5TB auf der Platte gelassen und f3write gestartet. 
Er läßt die vorhandenen Daten scheinbar unangetastet und schreibt den 
Rest mit Dateien x.fff voll.
Das dürfte jetzt erstmal wieder 7h dauern bis die Platte voll ist. Falls 
es Probleme gibt, dann eben früher.

Nächster Test wäre dann mit xfs (da dachte ich auch schon dran) und wenn 
das alles nicht hilft, dann halt 2 Partitionen.

von Peter M. (r2d3)


Lesenswert?

Andreas B. schrieb:
> Noch Ideen?

Wenn Du Deine Platte an einen Rechner mit Microsoft-Betriebssystem 
anschließt, brauchst Du ein Betriebssystem, dass das unterstützt.
Bei Linux sollte es auch keine Uraltversion sein.
Das könntest Du ja noch abprüfen.

von Andreas B. (bitverdreher)


Lesenswert?

MS ist nicht interessant. Habe nur Linux PCs hier. Alles Mint 17.3 mit 
4.4.0-13 Kernel.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Etwas OT:

Eine interessante Alternative zu den funktional kastrierten WD-Platten 
sind übrigens die Modelle von Seagate, die auch unter dem Maxtor-Logo 
verkauft werden.
Das sind ganz normale SATA-Platten, und die USB3-SATA-Bridge ist eine 
kleine aufgesteckte Platine.
Das 2.5"-4TB-Modell ist damit für derzeit ca. 110 EUR eine der 
günstigsten Varianten, an eine recht stromsparende 4-TB-Platte zu 
kommen.

von Andreas B. (bitverdreher)


Lesenswert?

Ja, das hatte ich auch erst später festgestellt, daß das so ein Teil 
ist. Ich wußte gar nicht, daß es so etwas gibt (mit USB3 controller 
direkt auf der Platte).
Die nächste Platte wird wohl eine normale NB Platte mit einem extra USB3 
Gehäuse werden. Dann weiß man auch was drin ist.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Andreas B. schrieb:
> Die nächste Platte wird wohl eine normale NB Platte mit einem extra USB3
> Gehäuse werden.

Die Kombination ist bloß oft teurer als wenn das von einem 
Festplattenhersteller zusammengeschraubt wird.

Siehe das Beispiel mit der 4-TB-Platte im "Maxtor"-Gehäuse. Die darin 
verbaute Platte kostet ohne Gehäuse mindestens 130 EUR:

https://www.heise.de/preisvergleich/seagate-barracuda-compute-4tb-st4000lm024-a1521938.html?hloc=at&hloc=de&hloc=uk

https://www.heise.de/preisvergleich/seagate-laptop-hdd-4tb-st4000lm016-a1399721.html?hloc=at&hloc=de&hloc=uk

Mit Gehäuse (und USB3-SATA-Bridge) wirds dann deutlich günstiger:
https://www.heise.de/preisvergleich/maxtor-m3-portable-4tb-hx-m401tcb-gm-a1397754.html

Das verhält sich bei anderen, kleineren 2.5"-Platten ebenso.

WD mag bei manchen Leuten einen besseren Ruf haben als Seagate, aber 
dafür baut WD halt gerne kastrierte nur-USB-Festplatten.

von Rolf M. (rmagnus)


Lesenswert?

Rufus Τ. F. schrieb:
> WD mag bei manchen Leuten einen besseren Ruf haben als Seagate, aber
> dafür baut WD halt gerne kastrierte nur-USB-Festplatten.

Nun muss ich aber auch sagen, dass es nicht soooo unsinnig klingt, eine 
externe USB-Festplatte so zu bauen, dass das Laufwerk direkt USB 
spricht, statt dass es nur SATA kann und dann noch extra eine 
zusätzliche Bridge braucht, um auf USB zu adaptieren. Die meisten 
Anwender kommen ja auch nicht auf die Idee, die Festplatte aus dem 
Gehäuse auszubauen und direkt in einen Rechner zu stecken. Da sind Leute 
wie wir eher die Ausnahme.
Würde man einen USB-Stick als "SATA-Stick" mit integrierter 
USB-SATA-Bridge bauen, fändest du das vermutlich auch irgendwie albern.

: Bearbeitet durch User
von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Rolf M. schrieb:
> dass es nicht soooo unsinnig klingt, eine externe USB-Festplatte so zu
> bauen, dass das Laufwerk direkt USB spricht,

Selbst Laien, die schon ein paar Mal mit Micro-USB-Steckern zu tun 
hatten, können der Möglichkeit etwas abgewinnen, diese leicht zu 
ersetzen.

Betrachtet man übrigens die Elektronik so einer WD-Platte, dann ist die 
nicht anders aufgebaut, das ist eine SATA-Platte mit einer 
USB-SATA-Bridge, nur ist die USB-SATA-Bridge auf der Hauptplatine der 
Festplatte verbaut.

Hier übrigens gibt es eine Anleitung, wie man an eine WD-USB-Platte 
einen SATA-Stecker anschließen kann, um bei defekter USB-SATA-Bridge an 
die Daten heranzukommen:
http://www.datarecoverytools.co.uk/2010/05/05/how-to-connect-and-recover-usb-only-western-digital-drives-with-hd-doctor-suite/

von Andreas B. (bitverdreher)


Angehängte Dateien:

Lesenswert?

Rufus Τ. F. schrieb:

>
> Siehe das Beispiel mit der 4-TB-Platte im "Maxtor"-Gehäuse. Die darin
> verbaute Platte kostet ohne Gehäuse mindestens 130 EUR:
>
Woher weißt Du daß gerade diese Platte drin ist? Und wer sagt Dir, daß 4 
Wochen später nicht doch etwas anderes drin ist?
Ob WD oder Seagate ist mir eigentlich egal. Langzeiterfahrungen mit 
einer Platte hat man eh erst dann, wenn die Platte schon nicht mehr auf 
den Markt ist.

> Hier übrigens gibt es eine Anleitung, wie man an eine WD-USB-Platte
> einen SATA-Stecker anschließen kann, um bei defekter USB-SATA-Bridge an
> die Daten heranzukommen:
> http://www.datarecoverytools.co.uk/2010/05/05/how-...

Nett, habe ich mir mal als Lesezeichen gesetzt.


Nun zum Test:
Momentan steht f3read auf Datei Nr.1966 von 2245 (Zur Erinnerung: Ich 
habe vor dem Test ca. 1.7TB Daten auf der Platte gelassen).

Vorher hatte ich nochmal den fsck drüber laufen lassen (siehe 
attachment, ohne Reparatur!). Jede Menge Fehler :-(

Beim f3read trat bis jetzt nur ein Fehler bei Datei Nr. 165 auf. Das ist 
ziemlich genau in der Mitte der Platte (also bei 2 TB!).

Zufall? Sehr merkwürdig...

von Andreas B. (bitverdreher)


Lesenswert?

Gerade komplett durchgelaufen: Es blieb bei den einen Fehler in der 
Plattenmitte:
Data OK: 2.19 TB (4707100712 sectors)
Data LOST: 3.59 MB (7352 sectors)
         Corrupted: 3.59 MB (7352 sectors)
  Slightly changed: 0.00 Byte (0 sectors)
       Overwritten: 0.00 Byte (0 sectors)
Average reading speed: 76.62 MB/s

Jetzt meldet smartctl immer noch keine Fehler. Der Long selftest von 
smartctl läuft noch.

Ich denke, ich werde jetzt die Platte mal mit xfs formatieren und 
schauen was er da tut.

von Peter M. (r2d3)


Lesenswert?

Andreas B. schrieb:
> Nun zum Test:
> Momentan steht f3read auf Datei Nr.1966 von 2245 (Zur Erinnerung: Ich
> habe vor dem Test ca. 1.7TB Daten auf der Platte gelassen).
>
> Vorher hatte ich nochmal den fsck drüber laufen lassen (siehe
> attachment, ohne Reparatur!). Jede Menge Fehler :-(
>
> Beim f3read trat bis jetzt nur ein Fehler bei Datei Nr. 165 auf. Das ist
> ziemlich genau in der Mitte der Platte (also bei 2 TB!).
>
> Zufall? Sehr merkwürdig...

Verstehe ich nicht.
Die Mitte liegt bei mir etwa bei Datei  1122 bis 1123 (=2245/2).

Wieso entspricht 165 der Mitte?

von Andreas B. (bitverdreher)


Lesenswert?

Die Platte hatte bereits ca. 1,7TB von 4TB an Daten. Dann wurden noch 
2245 Dateien a 1GB dazu erstellt. Da kommt 165 so etwa auf die Hälfte 
(wg. des Alignments fängt die Partition ja auch später an.

von oszi40 (Gast)


Lesenswert?

Andreas B. schrieb:
> Beim f3read trat bis jetzt nur ein Fehler bei Datei Nr. 165 auf.

Es gibt gelegentlich Unterschiede zwischen Testprogrammen und dem 
dümmsten Fall in der realen Welt. Vergleiche deshalb aus Interesse mal 
die Länge Deiner Dateinamen und Ordner ob diese recht lang sind oder 
exotische Zeichen enthalten.

von Joachim B. (jar)


Lesenswert?

Rufus Τ. F. schrieb:
> WD mag bei manchen Leuten einen besseren Ruf haben als Seagate

nach Jahren WDpassport die mich im Gegensatz zu anderen USB 2.5" Platten 
an KEINEM USB je im Stich liessen liebe ich diese Teile.
Meine Toshiba USB Platte war da zickiger.

Allerdings ist die 4TB WDpassport relativ teuer, die Maxtor ist nun auch 
preislich attraktiv (OK 10-20€ nicht so viel aber auf um 100 betrachtet 
schon)

von oszi40 (Gast)


Lesenswert?

Joachim B. schrieb:
> 4TB WDpassport relativ teuer

WD war eigentlich in der Vergangenheit recht zuverlässig. Man sollte 
sich aber trotzdem an die alte Bauernweisheit erinnern:"Lege nie ALLE 
Eier in einen Korb." Je größer die Platten werden, desto größer wird 
auch das Verlustrisiko durch böse Geister oder Irrtümer.  rm -r

von Joachim B. (jar)


Lesenswert?

oszi40 schrieb:
> WD war eigentlich in der Vergangenheit recht zuverlässig.

deswegen mag ich die

oszi40 schrieb:
> Man sollte
> sich aber trotzdem an die alte Bauernweisheit erinnern:"Lege nie ALLE
> Eier in einen Korb."

deswegen habe ich 6 Stück von 1TB bis 3TB und könnte ja mal eine Maxtor 
probieren wenns gebraucht wird.

: Bearbeitet durch User
von Mark S. (voltwide)


Lesenswert?

Joachim B. schrieb:
>> WD war eigentlich in der Vergangenheit recht zuverlässig.
>
> deswegen mag ich die

Da hab ich aber ganz andere Erfahrungen gemacht.
WD passports hatte ich vor mehreren Jahren 3 Stück. Die sind allesamt 
innerhalb weniger Monate verreckt. WD fasse ich seitdem mit sehr spitzen 
Fingern an.

von Joachim B. (jar)


Lesenswert?

und sonst greife ich immer ins Klo, das ausgerechnet ich Glück mit 
meinen WDpassport hatte, Wahnsinn.

von Andreas B. (bitverdreher)


Lesenswert?

oszi40 schrieb:
> Andreas B. schrieb:
>> Beim f3read trat bis jetzt nur ein Fehler bei Datei Nr. 165 auf.
>
> Es gibt gelegentlich Unterschiede zwischen Testprogrammen und dem
> dümmsten Fall in der realen Welt. Vergleiche deshalb aus Interesse mal
> die Länge Deiner Dateinamen und Ordner ob diese recht lang sind oder
> exotische Zeichen enthalten.

Ich hatte ja oben schon geschrieben, daß die Platte gut aussah, wenn man 
sie im Browser angeschaut hat. Das bezog sich natürlich auch auf die 
Dateinamen.
Im Moment läft der f3write noch (jetzt auf leere Platte, xfs 
formatiert). Merkwürdig ist, daß die Datenrate mittlerweile auf ca. 
8MB/s von vormals 90MB/s eingebrochen ist.
Echte Resultate dauern also noch....
Smartmon sieht noch gut aus.

von bastel_ (Gast)


Lesenswert?

wenn du fwrite mit ctrl-z pausierst, sync machst und dann wartest, und 
dann wieder mit % fwrite startest, hat sie dann wieder volle 
Geschwindigkeit? Nur mal so, kopier grade 4 TB auf ein Raid, nach 400 GB 
der Einbruch jeweils, musste ein paar Systemvariablen anpassen, scheint 
jetzt zu gehen.

von Andreas B. (bitverdreher)


Lesenswert?

wie meinst Du das: sync machen?

von Andreas B. (bitverdreher)


Lesenswert?

Gerade mal getestet an einer anderen Platte und sync gegoogelt. ;-)
Also die speed hatte zwischen 8 und 40MB/s geschwankt.
Jetzt ist sie wieder bei >70MB/s.

Danke für den Tip. Obwohl: Verstehen tu ich das nicht.

von bastel_ (Gast)


Lesenswert?

Ja ich auch nicht, aber googlen hat mir geholfen, denn das wird wieder 
langsam werden! Dauerhaft was zu bringen scheint: als root oder mit sudo 
davor:
sysctl -w vm.vfs_cache_pressure=50
sysctl -w vm.swappiness=10

wenn man vm.vfs_cache_pressure=50 googled findet man auch x Seiten über 
das Thema.

von Rolf M. (rmagnus)


Lesenswert?

Mark S. schrieb:
> Joachim B. schrieb:
>>> WD war eigentlich in der Vergangenheit recht zuverlässig.
>>
>> deswegen mag ich die
>
> Da hab ich aber ganz andere Erfahrungen gemacht.
> WD passports hatte ich vor mehreren Jahren 3 Stück. Die sind allesamt
> innerhalb weniger Monate verreckt. WD fasse ich seitdem mit sehr spitzen
> Fingern an.

Du findest halt zu jedem Festplattenhersteller jemanden, der dir so eine 
Geschichte erzählt. Da war ggf. auch einfach mal ein Problem mit einem 
bestimmten Modell, möglicherweise sogar nur eine Charge bzw. eine 
Firmware-Version. Sowas passiert aber jedem Festplatten-Hersteller, 
deshalb gibt's eben zu jedem auch so eine Story.
Wer bessere Ausfallsicherheit will, sollte sich auf keinen Fall mehrere 
Festplatten des selben Modells auf einmal kaufen, denn wenn die Charge 
einen Fehler hat, ist der bei allen Festplatten vorhanden. Wenigstens 
schauen, dass sie aus verschiedenen Chargen kommen oder besser noch 
gleich von verschiedenen Herstellern. Dann hat man die besten Chancen, 
dass sie nicht alle fast gleichzeitig sterben.

von bastel_ (Gast)


Lesenswert?

Recht hat er.. Bei meinem Raid sind die Platten im Laden gekauft und 
streuen Gott sei Dank schön im Herstellungsdatum ^^.
Ich hatte schon Festplatten mit schwachen Sektoren (werden nach einer 
Weile unlesbar, erneutes Überschreiben aktiviert sie dann wieder für 
eine Weile, lässt sich schlecht beweisen bei der Reklamation) oder 
solche die Bits kippen beim warm werden (sehr sehr böse, ist aber schon 
lange her).

Wegen dem Langsamwerden, ich hab das ext-4 dann für das initiale Füllen 
mit
mount -o defaults,noatime,nobarrier,data=writeback /dev/md127 mountpfad
gemounted, das scheint dann mit obigen Einstellungen dafür zu sorgen, 
dass er sich nicht verhaspelt, 3.5 TB hat er nun mal kopiert ohne 
Slowdown (obwohl die externe Dockingstation nur 3TB maximal verkraften 
soll, mal schauen ob die Checksummen noch alle stimmen)

von Andreas B. (bitverdreher)


Lesenswert?

Hast Du auch mal einen fsck über die volle ext4 Partition laufen lassen?

Das mit dem
sysctl -w vm.vfs_cache_pressure=50
sysctl -w vm.swappiness=10
hat auch nur kurzfristig geholfen.

Pausieren und sync machen hilft für eine Weile bevor er wieder 
runtergeht. Ich bin auch nicht sicher, ob diese Verlangsamung wirklich 
vom BS kommt. Unter Windows wird ähnliches in Netz berichtet. Ich 
vermute daher, daß die FP selbst unter bestimmten Bedingungen ausbremst 
(T oder warum auch immer).

Bei mir ist er jetzt übrigens beim Lesen ca. 2/3 der xfs Partition durch 
und hat noch keine Fehler. Sieht also erstmal gut aus.

Edit: der xfs_ckeck ist fehlerfrei (ohne irgendeine Meldung) 
durchgelaufen, nachdem die Platte voll beschrieben wurde.

: Bearbeitet durch User
von Andreas B. (bitverdreher)


Lesenswert?

Hi,
lief wieder schief. Nachdem die Platte zu 45% voll war (mit reellen 
Daten), traten wieder Fehler auf.
Ich versuche, das Ding jetzt wieder zurückzugeben.
Im Moment läuft (zwecks Beweis, smart ist ja ok)
sudo badblocks -vsw -b 4096 /dev/sde1 -o badblocks.log
Das wird jetzt erst mal eine Weile dauern.

: Bearbeitet durch User
von Joachim B. (jar)


Lesenswert?

Andreas B. schrieb:
> traten wieder Fehler auf.

vielleicht hat sie nur ne Macke, fehlerhafte Teile sollen ja mal 
vorkommen, ohne Vergleichsobjekt würde ich nichts auf die Ergebnisse 
geben.

von Andreas B. (bitverdreher)


Lesenswert?

Joachim B. schrieb:
> vielleicht hat sie nur ne Macke,

davon gehe ich erst mal aus. Ich versuche aber trotzdem eine andere zu 
bekommen. Da geht schon etwas Vertrauen verloren. Ich möchte nicht 
wissen wieviel Zeit ich in diese sch..s Palatte schon investiert habe.

von Helmut S. (helmuts)


Lesenswert?

Andreas B. schrieb:
> Joachim B. schrieb:
>> vielleicht hat sie nur ne Macke,
>
> davon gehe ich erst mal aus. Ich versuche aber trotzdem eine andere zu
> bekommen. Da geht schon etwas Vertrauen verloren. Ich möchte nicht
> wissen wieviel Zeit ich in diese sch..s Palatte schon investiert habe.

Irgendwo hatte ich neulich gelesen, dass man die Platten dieser Geräte 
auf keinen Fall umformatieren soll. Mir fällt aber der Link nicht mehr 
ein.

Formatiere sie doch mal wieder mit NTFS um zu sehen ob sie dann wieder 
4TB hat.

: Bearbeitet durch User
von Jupp (Gast)


Lesenswert?

Andreas B. schrieb:
> Joachim B. schrieb:
>> vielleicht hat sie nur ne Macke,
>
> davon gehe ich erst mal aus.

Ich wäre da nicht so sicher, dafür hängen die Fehler zu sehr an 
typischen FS-Grenzen, ~50%/2TB. xfs_ckeck war auch OK, SMART ja wohl 
auch. Gibts denn keine Möglichkeit, da an einer Windose mal ein NTFS 
draufzudegeln und mit h2testw zu testen?

von Joachim B. (jar)


Lesenswert?

Helmut S. schrieb:
> Irgendwo hatte ich neulich gelesen, dass man die Platten dieser Geräte
> auf keinen Fall umformatieren soll

denke ich auch, man sollte auf jeden Fall mit low level Routinen 
vorsichtig sein.

von Andreas B. (bitverdreher)


Lesenswert?

Habe nur einen Netbook mit WinXP. Zu alt und zu langsam. Erkennt die 
Platte auch nicht. Bei den reeelen Daten trat das Problem ja schon vor 
der Hälfte auf.
In der Anleitung stand auch drin daß man die Platte für die Verwendung 
von OSX umformatieren soll. Das sollte also kein Problem sein.
NTFS wäre mir auch zu langsam.
Der xfs check war später eben nicht mehr ok. D.h. da hängen viele 
Sektoren scheinbar an der Grenze zu lesbar/nicht lesbar.
Mir ist, ehrlich gesagt, mittlerweile auch egal warum das so ist. Ich 
muß das jetzt irgendwie für den Händler nachweisen und dann weg mit dem 
Ding.

von Rolf M. (rmagnus)


Lesenswert?

Helmut S. schrieb:
> Irgendwo hatte ich neulich gelesen, dass man die Platten dieser Geräte
> auf keinen Fall umformatieren soll. Mir fällt aber der Link nicht mehr
> ein.

Bei SD- und anderen Karten und ggf. USB-Sticks ist das so, aber bei 
Festplatten habe ich sowas noch noch nicht gehört.

von Peter M. (r2d3)


Lesenswert?

Andreas,

Deine defekten Sektoren treten ja sowohl mit ext4 als auch mit NTFS auf.
Es liegt wohl nicht an den Treibern Deines Linux.

Deine Platte hat ja einen USB-Anschluss.
Es muss auch nicht unbedingt die Festplatte defekt sein.

Wie ist die Verbindung rechnerseitig?
Alte Hardware? Eingesetzte USB3.0-Karte?
Oder direkt am Mainboard?

Gibt es noch für Dich die Möglichkeit, die Festplatte an einem anderen 
Rechner zu testen?
Das muss kein Windows-Rechner sein.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Was man auch prüfen sollte, ist die Länge und Stärke des USB-Kabels. Je 
kürzer und dicker (hier insbesondere die Stromversorgungsleitungen), 
desto besser, denn beim Pfusch, 2.5"-Festplatten über USB zu versorgen, 
ist der Spannungsabfall ein kritischer Faktor.

Spezifikationskonform ist das ganze sowieso nicht möglich, denn 
2.5"-Festplatten benötigen durch die Bank mindestens kurzzeitig mehr als 
die 900 mA, die ein USB3-Port zur Verfügung stellen kann.

Und wenn die Versorgungsspannung einer Festplatte eine "wackelige 
Angelegenheit" ist, ist es um die Zuverlässigkeit der Festplatte nicht 
besser gestellt.

von bastel_ (Gast)


Lesenswert?

Wenn der Fehler immer bei ~2TB auftritt, dann ist entweder am Controller 
in der Platte was kaputt (wäre das ein Serienfehler hätten schon mehr 
geschrien) oder der Rechner mag nix über 2 TB...
geht es an einem anderen Rechner (Rechner schuld) oder geht nicht 
(Platte) ist die Sache klar. Hast du keinen zweiten Rechner, dann besorg 
ein anderes Modell. Macht die den gleichen Ärger, dann ist das Problem 
der Rechner.

von Peter M. (r2d3)


Lesenswert?

Rufus Τ. F. schrieb:
> Was man auch prüfen sollte, ist die Länge und Stärke des USB-Kabels. Je
> kürzer und dicker (hier insbesondere die Stromversorgungsleitungen),
> desto besser, denn beim Pfusch, 2.5"-Festplatten über USB zu versorgen,
> ist der Spannungsabfall ein kritischer Faktor.

Das habe ich vergessen zu erwähnen, danke für den Hinweis.

>
> Spezifikationskonform ist das ganze sowieso nicht möglich, denn
> 2.5"-Festplatten benötigen durch die Bank mindestens kurzzeitig mehr als
> die 900 mA, die ein USB3-Port zur Verfügung stellen kann.

Die Verallgemeinerung "durch die Bank" würde ich bestreiten.
Beleg hier:

Beitrag "Maximalstrom bei externer Festplatte ohne Netzteil"

Leider ist die Messung mit einer geringen Datenrate durchgeführt worden.
Trotzdem halte ich die Grafik für aussagekräftig.

von Andreas B. (bitverdreher)


Lesenswert?

Rufus Τ. F. schrieb:
>
> Und wenn die Versorgungsspannung einer Festplatte eine "wackelige
> Angelegenheit" ist, ist es um die Zuverlässigkeit der Festplatte nicht
> besser gestellt.

Das ist ein guter Tip. Eine externe andere WD mit 2TB macht unter 
gleichen Bedingungen (USB3, gleicher Anschluß) absolut keine Problemme 
aber vielleicht zieht diese hier einfach mehr Strom.

bastel_ schrieb:
> Wenn der Fehler immer bei ~2TB auftritt, dann ist entweder am Controller
> in der Platte was kaputt (wäre das ein Serienfehler hätten schon mehr
> geschrien) oder der Rechner mag nix über 2 TB...

Es war ja nur beim ersten Mal bei ca. 2TB. Später kam es etwas früher. 
Er schreibt ja nach 2TB auch noch (Lesen kann man das auch). Der F3 Test 
lief ja komplett mit nur einem Fehler durch.

> geht es an einem anderen Rechner (Rechner schuld) oder geht nicht
> (Platte) ist die Sache klar. Hast du keinen zweiten Rechner, dann besorg
> ein anderes Modell. Macht die den gleichen Ärger, dann ist das Problem
> der Rechner.

Ich kann es mal an meinem Notebook ausprobieren. Dann wäre zumindest die 
HW schon mal ausgeschlossen.

von oszi40 (Gast)


Lesenswert?

Andreas B. schrieb:
> an meinem Notebook ausprobieren

In solchen Fällen habe ich Ordner angelegt 1,2,3,4 angelegt und mehrfach 
das Selbe kopiert um sicher zu gehen, daß es nicht an einem ewig langen 
Dateinamen mit verbotenen Zeichen hängt.

von Andreas B. (bitverdreher)


Lesenswert?

Peter M. schrieb:
> Wie ist die Verbindung rechnerseitig?
> Alte Hardware? Eingesetzte USB3.0-Karte?
> Oder direkt am Mainboard?

Geht über eine extra USB3 PCI Karte. Von hier über einen Stecker innen 
zur  Front. Das Board ist ein Gigabyte GA-H67M-D2-B3 mit i5-2500K und 
8GB Ram. Zwar nicht mehr das neuste aber als veraltet würde ich es noch 
nicht sehen.
Aber wie gesagt, ich teste es mal mit meinem Notebook (Yoga 2 Pro, auch 
Mint 17.3). Das hat einen USB3 POrt.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Peter M. schrieb:
> Die Verallgemeinerung "durch die Bank" würde ich bestreiten.
> Beleg hier:

Ich sehe da keinen Beleg. Was hast Du da verlinkt?


Hingegen habe ich mir Datenblätter bzw. "product manuals" von diversen 
2.5"-Festplatten angesehen und keine einzige kommt mit einem 
Anlaufstrom von unter 1000 mA aus.

von Andreas B. (bitverdreher)


Lesenswert?

oszi40 schrieb:
> In solchen Fällen habe ich Ordner angelegt 1,2,3,4 angelegt und mehrfach
> das Selbe kopiert um sicher zu gehen, daß es nicht an einem ewig langen
> Dateinamen mit verbotenen Zeichen hängt.

F3 erzeugt Datei mit jeweils 1GB Größe (xxx.fff, xxx=Dateinummer) und 
macht damit die Platte voll.

von Andreas B. (bitverdreher)


Lesenswert?

Rufus Τ. F. schrieb:
> Hingegen habe ich mir Datenblätter bzw. "product manuals" von diversen
> 2.5"-Festplatten angesehen und keine einzige kommt mit einem
> Anlaufstrom von unter 1000 mA aus.

Anlaufen tut sie ja. Wenn es da Probleme gäbe, würde sie nicht erst 
Stunden später Fehler bekommen.

von Joachim B. (jar)


Lesenswert?

Andreas B. schrieb:
> Das ist ein guter Tip. Eine externe andere WD mit 2TB macht unter
> gleichen Bedingungen (USB3, gleicher Anschluß) absolut keine Problemme
> aber vielleicht zieht diese hier einfach mehr Strom.

wie gesagt ich habe mit 3TB WDpassport Platten am PI und am XP Compi (im 
USB2 und PCcard54 USB3 Slot) keine Probleme, eine 2TB Grenze gibt es 
nicht mit NTFS.

Ich sehe die 4TB Platte als kritisch, entweder defekt oder in der 
Datendichte  überreizt an.

von Jupp (Gast)


Lesenswert?

Andreas B. schrieb:
> extra USB3 PCI Karte

Die Info kommt spät. Ich habe da schon viele Unverträglichkeiten bzw. 
Seltsamkeiten erleben dürfen, zu (gefühlten) 90% lag es an schlecht 
gepflegten Treibern.

Funtionieren andere Platten entsprechender Größe ohne Probleme an diesem 
Port?

von Andreas B. (bitverdreher)


Lesenswert?

Jupp schrieb:
> Andreas B. schrieb:
>> extra USB3 PCI Karte
>
> Die Info kommt spät. Ich habe da schon viele Unverträglichkeiten bzw.
> Seltsamkeiten erleben dürfen, zu (gefühlten) 90% lag es an schlecht
> gepflegten Treibern.
Es ist kein Windows. Linux hatte noch nie Probleme damit irgendwelche 
großen Platten anzusprechen, ob ext4 oder xfs. Auch mit dem USB3 Port 
hatte ich noch nie Probleme.

NTFS wird allerdings noch nicht so lange unterstützt. Läuft zwar, aber 
langsam. Deshalb habe ich die NTFS Partition gleich plattgemacht.

>
> Funtionieren andere Platten entsprechender Größe ohne Probleme an diesem
> Port?
2TB ja, mit 4TB ist es meine erste Platte.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Funktioniert denn überhaupt irgendwo an Deinem System eine Platte mit 
mehr als 2 TB Kapazität?

Egal, wie wie angeschlossen wird.

von Andreas B. (bitverdreher)


Lesenswert?

Rufus Τ. F. schrieb:
> Funktioniert denn überhaupt irgendwo an Deinem System eine Platte mit
> mehr als 2 TB Kapazität?
>
> Egal, wie wie angeschlossen wird.

Ich habe nur die eine 4TB Platte. Und man kann nicht sagen, daß sie 
überhaupt nicht funktioniert. Mit den F3 test wurde die ganze Platte mit 
3700 Dateien vollgeschrieben und nur eine Datei hatte Lesefehler.
Mit reellen Daten gab es dann später Fehler im Dateisytem, die unter 
Verlust von vielen Daten repariert werden konntn.

von Mark S. (voltwide)


Lesenswert?

Du hast wenigstens 2 USB-Buchsen am Notebook? Dann würde ich mir ein 
Y-USB-Kabel besorgen, um den Betriebsstrom aus 2 USB-Buchsen zu ziehen.

von Peter M. (r2d3)


Lesenswert?

Hallo Andreas,

Andreas B. schrieb:
> Geht über eine extra USB3 PCI Karte. Von hier über einen Stecker innen

PCI? nicht PCIe?
Hast Du denn Stromversorgungsstecker vom Mainboard-Netzteil auch mit 
Deiner USB3-PCI-Karte verbunden?


Rufus Τ. F. schrieb:
> Peter M. schrieb:
>> Die Verallgemeinerung "durch die Bank" würde ich bestreiten.
>> Beleg hier:
>
> Ich sehe da keinen Beleg. Was hast Du da verlinkt?

Eine Messgrafik! :)
Insbesondere kann man die Effekte des gesetzten RPS-Jumpers beobachten.

Diese Messung zeigt mir, dass zumindest in meinem Fall auch ohne 
RPS-Jumper der spezifizierte Anlaufstrom, so wie im Datenblatt 
beschrieben

https://www.wdc.com/content/dam/wdc/website/downloadable_assets/deu/spec_data_sheet/2879-771437.pdf

nicht erreicht wird.

> Hingegen habe ich mir Datenblätter bzw. "product manuals" von diversen
> 2.5"-Festplatten angesehen und keine einzige kommt mit einem
> Anlaufstrom von unter 1000 mA aus.

Auch in dem WD-Datenblatt werden die 1000mA genannt.
WD spezifiziert den Anlaufstrom halt konservativ am oberen Rand.

Jupp schrieb:
> Die Info kommt spät. Ich habe da schon viele Unverträglichkeiten bzw.
> Seltsamkeiten erleben dürfen, zu (gefühlten) 90% lag es an schlecht
> gepflegten Treibern.

Was sind "schlecht gepflegte Treiber"?
Machst Du Treiber-Debugging? Respekt!

: Bearbeitet durch User
von Jupp (Gast)


Lesenswert?

Mark S. schrieb:
> Y-USB-Kabel

Das ist Murks. An standardkonformen Geräten funktioniert es nicht, an 
nicht-standardkonformen Geräten ist es sowieso egal.

von Jupp (Gast)


Lesenswert?

Peter M. schrieb:
> Was sind "schlecht gepflegte Treiber"?

Zeugs, was nach dem ersten hingerotzten Versuch nicht weiter gepflegt 
wird. Teils kruder Code führt zu indeterministischen Bugs. Weniger bei 
Intel/AMD, aber gerne bei kleineren Chipsatzherstellern gesehen, allen 
voran VIA*. Dergleichen Bugs trifft man auch immer wieder in der 
Firmware älterer USB-SATA Bridges. Mittlerweile ist es ruhiger geworden, 
aber zu Beginn der USB 3.0-Zeit wars ein Graus.

> Machst Du Treiber-Debugging?

Für Linux/BSD regelmäßig.



*Na, wer bekommt hier eine Gänsehaut, wenn er den Namen nur liest? ;)

von Mark S. (voltwide)


Lesenswert?

Jupp schrieb:
> Mark S. schrieb:
>> Y-USB-Kabel
>
> Das ist Murks. An standardkonformen Geräten funktioniert es nicht, an
> nicht-standardkonformen Geräten ist es sowieso egal.

An der fehlenden Standardkonformität der USB-Buchsen meines Lenovo-X220 
kann ich leider nichts ändern. Aber mithilfe des USB-Y-Kabels bringe ich 
meine USB-SoundKarte aus dem Dauer-Reset in den Normalbetrieb, also was 
solls?

: Bearbeitet durch User
von Peter M. (r2d3)


Lesenswert?

Jupp schrieb:
> Peter M. schrieb:
>> Was sind "schlecht gepflegte Treiber"?
>
> Zeugs, was nach dem ersten hingerotzten Versuch nicht weiter gepflegt
> wird. Teils kruder Code führt zu indeterministischen Bugs. Weniger bei
> Intel/AMD, aber gerne bei kleineren Chipsatzherstellern gesehen, allen
> voran VIA*. Dergleichen Bugs trifft man auch immer wieder in der
> Firmware älterer USB-SATA Bridges. Mittlerweile ist es ruhiger geworden,
> aber zu Beginn der USB 3.0-Zeit wars ein Graus.
>
>> Machst Du Treiber-Debugging?
>
> Für Linux/BSD regelmäßig.
>
> *Na, wer bekommt hier eine Gänsehaut, wenn er den Namen nur liest? ;)

Seit den Problemen bei meinen ersten PC-Selbstbauversuchen mit 
Chipsätzen von Drittanbieter bei Mainboard und Zusatzkomponenten (Ali, 
Via etc...) kommt mir nur noch Intel ins Haus.
Mit einigen Chipsatzherstellern scheint es der ct-Lektüre nach chronisch 
Probleme zu geben. VIA ist genau so ein Kandidat.

von Andreas B. (bitverdreher)


Lesenswert?

Hi,
Zwischenresultat des Laufes von: sudo badblocks -vsw -b 4096 /dev/sde1 
-o badblocks.log
steht jetzt bei meinem Notebook bei 80% noch ohne Fehler. (macht noch 
0xAA).
Ich vermute mal, daß er dann mit 0x55 fortsetzt. Wird also noch eine 
Weile dauern.

Jupp schrieb:
>> Machst Du Treiber-Debugging?
>
> Für Linux/BSD regelmäßig.

Da bin ich bei Dir ja an der richtigen Adresse (sorry, ich dachte Du 
bist ein Windows Jünger, da gab es mit USB ja wirklich jede Menge Murks 
;-) )
Die Karte hat einen Renesas Chip und meldet sich (lspci) mit:
02:00.0 USB controller: Renesas Technology Corp. uPD720201 USB 3.0 Host 
Controller (rev 03)
dmesg:
andy@andy-H67M-D2-B3 ~ $ dmesg | grep xhci
[    0.656414] xhci_hcd 0000:02:00.0: xHCI Host Controller
[    0.656464] xhci_hcd 0000:02:00.0: new USB bus registered, assigned 
bus number 3
[    0.661932] xhci_hcd 0000:02:00.0: hcc params 0x014051cf hci version 
0x100 quirks 0x00000010
[    0.662282] usb usb3: Manufacturer: Linux 4.4.0-13-generic xhci-hcd
[    0.662722] xhci_hcd 0000:02:00.0: xHCI Host Controller
[    0.662770] xhci_hcd 0000:02:00.0: new USB bus registered, assigned 
bus number 4
[    0.665716] usb usb4: Manufacturer: Linux 4.4.0-13-generic xhci-hcd

Hilft Dir das für eine Aussage?

Das mit der Kabelpeitsche finde ich auch nicht so sinnvoll. Wenn der USB 
Port standardgemäß ist, liefert er ja nur auf Anforderung mehr Strom. 
Das dürfte bei so einem Kabel nicht funktionieren. USB3 liefert 900mA. 
Wenn also der Anlauf vorbei ist (und da ist das Problem offensichtlich 
nicht), sollte es keine Probleme mehr geben.
Was ich aber noch untersuchen muß:
Platte nach hinten an der USB-Port (direkt am Adapter) und
Platte ohne weitere Geräte an dem hinteren USB3 Port laufen lassen. Ich 
habe nämlich parallel manchmal den USB 3 Port für eine andere Platte 
verwendet. Das wäre auch noch eine potentielle Möglichkeit.
Aber schauen wir erst mal was er an dem NB macht.

von Rolf M. (rmagnus)


Lesenswert?

Andreas B. schrieb:
> Das mit der Kabelpeitsche finde ich auch nicht so sinnvoll. Wenn der USB
> Port standardgemäß ist, liefert er ja nur auf Anforderung mehr Strom.
> Das dürfte bei so einem Kabel nicht funktionieren. USB3 liefert 900mA.

Vor allem wird sich der Strom ja auch nicht ordnungsgemäß so aufteilen, 
dass genau 900 mA aus dem einen und der Rest aus dem anderen Port kommt, 
sondern irgendwie, abhängig von irgendwelchen Innenwiderständen.

von Joachim B. (jar)


Lesenswert?

gerade ist ein Freund hier eingetroffen der mit seiner ersten WD 
elements 4TB 2,5" secound edition auch Schiffbruch erlitten hatte 
klackern crash bereichsabhängig, sie wurde umgetauscht zu einer Neuen, 
nun OK. Er formatiert NTFS über veracrypt.

Dabei war er bis jetzt bis 3TB mit den Platten wie ich zufrieden.

von Peter D. (peda)


Lesenswert?

Joachim B. schrieb:
> Allerdings ist die 4TB WDpassport relativ teuer

Ich nehme immer das günstigste. Daher sind die meisten meiner externen 
HDDs Seagate, z.B.: STDR4000200. Bisher keinerlei Probleme, laufen alle 
wie dumm.

Allerdings kaufe ich nur im Laden.
Bei Versand liest man ja über die abenteuerlichsten Verpackungen. Kein 
Wunder, wenn dann die HDDs nach diversen Wurftests schon defekt beim 
Kunden ankommen.

Bei einem USB-Gehäusetyp hatte ich Probleme mit den 
USB3-Frontanschlüssen, die HDDs klackerten nur. Ich hab dann nen 7-fach 
Hub mit 4A-Netzteil auf den Monitorfuß geklebt, darüber laufen alle HDDs 
einwandfrei.

von Michael B. (alter_mann)


Lesenswert?

Peter D. schrieb:
> Allerdings kaufe ich nur im Laden.
> Bei Versand liest man ja über die abenteuerlichsten Verpackungen.

"Der Laden" stellt die HDD aber auch nicht in seinen hinteren 
Räumlichkeiten her. Die werden da auch einfach nur angeliefert wie 
Netzteile, Router, Kabel...

von Peter D. (peda)


Lesenswert?

Michael B. schrieb:
> Die werden da auch einfach nur angeliefert

Aber hoffentlich nicht einzeln als "Wurfsendung", sondern auf Paletten.

von Michael B. (alter_mann)


Lesenswert?

Wieviele HDD vekauft so ein gewöhnlicher Laden so die Woche?
Kommen die 100 Stück tatsächlich auf Paletten? Und wie vorsichtig geht 
der Ver-/Entlader mit seinem Hubwagen damit um?

von Joachim B. (jar)


Lesenswert?

Peter D. schrieb:
> Aber hoffentlich nicht einzeln als "Wurfsendung", sondern auf Paletten.

Michael B. schrieb:
> Kommen die 100 Stück tatsächlich auf Paletten?

wer glaubt denn an palettenweise Lieferung von 4TB 2,5" Platten im 
Computerladen?

von Andreas B. (bitverdreher)


Lesenswert?

Hi,
nun ist der Test mit:
sudo badblocks -vsw -b 4096 /dev/sde1 -o badblocks.log
nach ca. 100h komplett fehlerfrei an meinem Notebook durchgelaufen.
D.h. ich gehe jetzt mal davon aus, daß die FP tatächlinch i.O. ist und 
das Problem am Desktop liegt.
Erster Verdacht: Das Kabel von der USB3 Karte zur Front.
Die andere WD mit 2TB (WD-Elements) hat dort zwar noch nie Probleme 
gemacht, aber in irgendeinem Punkt scheint die 4TB WD (MyPassport) 
anspruchsvoller zu sein.
Ich habe die 4TB jetzt wieder mit ext4 formatiert und hänge sie jetzt 
mal hinten an den Desktop zum vollkopieren.

Ergebnis folgt.

von Andreas B. (bitverdreher)


Lesenswert?

Der Verdacht hat sich erhärtet. Die FP ist absolut ok. Habe sie jetzt 
komplett voll kopiert und der fsck war anschließend fehlerfrei.
Es besteht offensichtlich ein Problem mit dem Kabel das vom USB3 
Controller zur Front verläuft. Warum das bei der kleineren WD mit 2TB zu 
keinen Problemen geführt hat, ist unklar. Der Stromverbrauch kann es 
nicht sein, weil die 4TB WD auch an einem USB2 Port problemlos läuft.
D.h. das Kabel innen zählt wohl auch als Verlängerungskabel und ist lt. 
USB Spec. (wie ich gerade in Wikipedia nachgelesen habe und das gilt 
auch für USB 2!) nicht zulässig. Darauf muß man erst mal kommen wenn man 
sich die Anzahl der angebotenen Verlängerungskabeln auf den Markt 
anschaut.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Andreas B. schrieb:
> Es besteht offensichtlich ein Problem mit dem Kabel das vom USB3
> Controller zur Front verläuft. Warum das bei der kleineren WD mit 2TB zu
> keinen Problemen geführt hat, ist unklar. Der Stromverbrauch kann es
> nicht sein, weil die 4TB WD auch an einem USB2 Port problemlos läuft.

Doch, genau der Stromverbrauch ist die Ursache. Dein USB2-Port liefert 
wie 95% aller anderen USB2-Ports erheblich mehr Strom, als die 
Spezifikation vorschreibt, und auch ohne das zu überprüfen.

Sonst würde an dem überhaupt keine 2.5"-USB-Platte funktionieren.

Die Stromaufnahme der 4-TB-Platte ist höher als die von anderen 
2.5"-Platten, weil die 4-TB-Platte eine 15mm fette Kiste mit 
entsprechend mehr Magnetscheiben und größerer zu beschleunigender Masse 
ist. Auch der Kopfträger ist schwerer (da mehr Köpfe daran befestigt 
sind) und somit benötigt auch das Bewegen der Köpfe mehr Strom als bei 
kleineren Platten.

Dein USB3-Port an der Front Deines PCs ist an einem Verlängerungskabel 
angeschlossen, was sich bei größeren Belastungen ungünstig auswirkt. 
Übergangswiderstände der zusätzlichen Steckverbinder, Leitungswiderstand 
des vermutlich um die 50cm langen Kabels ... kommt alles zusammen.

von Andreas B. (bitverdreher)


Lesenswert?

Rufus Τ. F. schrieb:
>
> Sonst würde an dem überhaupt keine 2.5"-USB-Platte funktionieren.
>
So würde ich das jetzt nicht sehen. Eine Hersteller wie WD würde wohl 
kaum eine Platte auf den Markt bringen, die außerhalb der Spec. läuft.
Aber Du hast insofern Recht, daß der USB 2 Port vermutlich mehr liefert.

> Die Stromaufnahme der 4-TB-Platte ist höher als die von anderen
> 2.5"-Platten, weil die 4-TB-Platte eine 15mm fette Kiste mit
> entsprechend mehr Magnetscheiben und größerer zu beschleunigender Masse
> ist. Auch der Kopfträger ist schwerer (da mehr Köpfe daran befestigt
> sind) und somit benötigt auch das Bewegen der Köpfe mehr Strom als bei
> kleineren Platten.
>
Das ist klar. Wobei ich aber auch vermuten würde daß die Hersteller so 
schlau sind und einen Sanftanlauf des Spindelmotors da reinbringen.
Generell wird eine solche Platte aber mehr Strom brauchen, das stimmt.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

Andreas B. schrieb:
> Eine Hersteller wie WD würde wohl kaum eine Platte auf den Markt
> bringen, die außerhalb der Spec. läuft.

Doch, so ist es. Es gibt so gut wie keine 2.5"-USB-Platte, die sich 
tatsächlich an die Spezifikation hält. Der Anlaufstrom (der beim 
Hochfahren des Spindelmotors benötigt wird) liegt bei jeder 2.5"-Platte 
jenseits der für USB2.0 zulässigen 500 mA und sehr oft auch jenseits der 
bei USB3.0 zulässigen 900 mA. Es gibt wenige ausgesuchte Platten, die 
den Spindelmotor langsamer beschleunigen, um die Stromaufnahme zu 
drosseln, die aber sind die Ausnahme, und nicht die Regel. Auch nicht 
bei WD, und insbesondere nicht beim vorliegenden 4-TB-Brocken.

WD veröffentlicht keine brauchbare Dokumentation der Platten (oder 
versteckt sie so gut, daß ich sie bislang nicht finden konnte), so daß 
man das auch nicht verifizieren/falsifizieren kann.

Brauchbare Dokumentation sieht bei anderen Herstellern so aus:

https://www.seagate.com/www-content/product-content/seagate-laptop-fam/barracuda_25/en-us/docs/100804767f.pdf

In diesem Dokument ist beispielsweise auf S.11 (12) der maximale 
Anlaufstrom mit 1.2 A spezifiziert.

von oszi40 (Gast)


Lesenswert?

Rufus Τ. F. schrieb:
> zulässigen 500 mA und sehr oft auch jenseits

Es gibt schöne USB-Adabter, womit man den Stromverbrauch messen könnte. 
Ob die Daten dann noch sauber ankommen steht auf einem anderem Blatt.

von Rufus Τ. F. (rufus) Benutzerseite


Lesenswert?

oszi40 schrieb:
> Es gibt schöne USB-Adabter, womit man den Stromverbrauch messen könnte.

Der Anlaufstrom fließt nur wenige Sekunden lang, den müsste man mit 
anderen Mitteln messen (DSO und Shunt o.ä.).

Und ja, so ein Messadapter bereitet sicher mehr Probleme, als er löst.

von Andreas B. (bitverdreher)


Lesenswert?

oszi40 schrieb:
> Es gibt schöne USB-Adabter, womit man den Stromverbrauch messen könnte.
> Ob die Daten dann noch sauber ankommen steht auf einem anderem Blatt.

Habe ich schon versucht, aber ohne Oszi ist da nichts zu machen. Die 
Daten waren mir dabei wurscht. Mir ging es nur um den Strom. Aber das 
ist zu dynamisch für diese Dinger.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.