Forum: Mikrocontroller und Digitale Elektronik SATA FullSpeed


von Mutluit M. (mutluit)


Lesenswert?

Hi,
also, das folgende Problem lässt mir keine Ruhe :-)

Situation:
Kleinrechner mit 1GHz Dualcore-CPU im SoC (Allwinner A20) mit 
integriertem SATA-II-Controller (d.h. 300 MB/s max. möglich).

Test-Hardware hier:
Banana Pi M1 und Banana P1 R1 (aka Lamobo R1).

Ist-Zustand:
Die SATA-Lesegeschwindigkeit von SSD beträgt etwas über 200 MB/s
und die Schreibgeschwindigkeit ca. 132 MB/s (bei beiden gemessen
mittels dd mit Blockgrössen 8K, 12K, 16K).

Problem:
Die volle SATA-II-Geschwindigkeit von 300 MB/s wird nicht erreicht.

Frage:
Meint ihr nicht auch, dass die Leistung dieser Dualcore CPU mehr als 
ausreichend für SATA-II ist?
Woran könnte es denn dann liegen, dass die volle Geschwindigkeit
von 300 MB/s, insb. beim Lesen, nicht erreicht wird?
Bin für alle konstruktiven Ideen und Vorschläge dankbar, die helfen 
dieses Problem bei diesen o.g. Geräten (bzw. allen ähnlichen Geräten die 
den selben Linux-SATA-Treiber ahci_sunxi benutzen) zu beheben.

Thx

: Bearbeitet durch User
von Martin (Gast)


Lesenswert?

Da gab es doch erst hier vor kurzem einen beitrag zu. Der Treiber ist es 
wohl.

von Mutluit M. (mutluit)


Lesenswert?

Martin schrieb:
> Da gab es doch erst hier vor kurzem einen beitrag zu. Der Treiber ist es
> wohl.

Ja, genau diese Geschichte geht eben noch weiter. Im Treiber wurde eine 
Verbesserung eingebaut, die die Schreibgeschwindkeit von ca. 40 MB/s auf 
jetzt um die 132 MB/s gesteigert hat. Aber das ist mMn immer noch nicht 
das Ende der Fahnenstange. Da sollte mMn mehr drin sein.

von Mutluit M. (mutluit)


Lesenswert?

Meine Vermutung geht in Richtung DMA. Aber es heisst dass das SATA-Modul 
in dieser SoC einen eigenen integrierten DMA benutzen würde. Vlt. ist 
der nicht richtig initialisiert im Treiber.

Ich kenne mich mit Initialisierung von DMA leider nicht aus, muss mich 
auch erst einlesen. Aber vlt. hat jemand eine Vermutung oder Idee 
diesbezüglich, was alles passieren kann wenn DMA nicht richtig 
initialisiert wurde, also ob die beobachteten Symptome tatsächlich auf 
DMA hindeuten.

Hier kann man die Handbücher zu dieser SoC finden:
https://github.com/allwinner-zh/documents/tree/master/A20

: Bearbeitet durch User
von ACDC (Gast)


Lesenswert?

Mutluit M. schrieb:
> Frage:
> Meint ihr nicht auch, dass die Leistung dieser Dualcore CPU mehr als
> ausreichend für SATA-II ist?

wenn der nix anderes Tut :D

von Mutluit M. (mutluit)


Lesenswert?

ACDC schrieb:
> Mutluit M. schrieb:
>> Frage:
>> Meint ihr nicht auch, dass die Leistung dieser Dualcore CPU mehr als
>> ausreichend für SATA-II ist?
>
> wenn der nix anderes Tut :D

Also, am HDMI und USB hängen keine Geräte dran, eine Desktop-GUI hat das 
System nicht (ist nicht installiert), und WLAN und BT sind nicht 
aktiviert.
Nur Ethernet ist aktiv, da auch nur ein ssh-login wo nichts grossartiges 
passiert.
Ich habe den Interrupts von Ethernet und SATA jeweils verschiedene 
CPU-cores zugeordnet: es bringt zwar etwas Verbesserung ein, aber der 
grosse Durchbruch fehlt noch.
Die Temperatur ist nur etwa 26C beim R1.
Und die CPU-cores sind im Leerlauf fast 100% Idle, also da ist praktisch 
nichts am Laufen was die CPU-cores bremsen würde.

Langsam kommt bei mir Zweifel auf, ob das Problem nicht am Linux selbst 
liegt :-)

: Bearbeitet durch User
von Jack V. (jackv)


Lesenswert?

Der kleine ARM-SoC ist nunmal kein IO-Monster (insbesondere kann man ihn 
nicht mit x86-CPUs mit gleichem Takt vergleichen), und man sollte auch 
mal schauen, ob der SATA-Controller nicht, wie bei einigen anderen 
Boards, über den USB-Controller dranhängt. Auch wäre zu prüfen, ob das 
SSD überhaupt mehr hergeben kann – mal an einen richtigen Rechner 
klemmen und gucken, was da für Zahlen rausfallen?

von S. R. (svenska)


Lesenswert?

Mutluit M. schrieb:
> Kleinrechner mit 1GHz Dualcore-CPU im SoC (Allwinner A20) mit
> integriertem SATA-II-Controller (d.h. 300 MB/s max. möglich).

Dieses Forum ist, was dein Problem betrifft, der falsche 
Ansprechpartner. Auf den Mailinglisten von linux-sunxi (bzw. dessen IRC) 
wirst du wahrscheinlich auf mehr Leute treffen, die diese SoCs im Detail 
kennen.

Die einzigen Allwinner-Geräte, die ich hier habe, haben kein SATA.

Mutluit M. schrieb:
> Woran könnte es denn dann liegen, dass die volle Geschwindigkeit
> von 300 MB/s, insb. beim Lesen, nicht erreicht wird?

Bist du dir sicher, dass die internen Busse (zwischen CPU/DMA und SATA, 
also AHB) überhaupt schnell genug sind? Liegt da sonstiger Traffic 
drauf, und wenn ja, welcher? Besitzt der SATA-Block selbst genug 
Bandbreite, um die 300 MB/s zu verarbeiten?

Allgemeiner gefragt: Gibt es überhaupt Software (z.B. BSP-Kernel von 
Allwinner), die mehr aus dem SoC rausholt?

Mutluit M. schrieb:
> Langsam kommt bei mir Zweifel auf, ob das Problem
> nicht am Linux selbst liegt :-)

Das ist ebenfalls möglich, schließlich liegen zwischen "dd" und "Gerät" 
mehrere Softwaresschichten. Du kannst ja testweise den AHCI-Treiber aus 
Linux ausbauen und einen minimalen Treiber (bare metal) als Maßstab 
benutzen.

Aber wie gesagt, in diesem Forum bist du mit deinem Problem eher falsch. 
Obwohl ich es gut finde, wenn jemand den Allwinner-Chipsätzen zu 
besserem Support verhilft.

von Mutluit M. (mutluit)


Lesenswert?

Jack V. schrieb:
> Der kleine ARM-SoC ist nunmal kein IO-Monster (insbesondere kann man ihn
> nicht mit x86-CPUs mit gleichem Takt vergleichen),

Aber in der SSD/HDD selbst werkelt doch eine noch kleinere CPU drin, 
sogar so ein oller 8051-CPU aus dem letzten Jahrtausend: der schafft es 
doch auch, sogar SATA-III mit seinen 600 MB/s.

> und man sollte auch
> mal schauen, ob der SATA-Controller nicht, wie bei einigen anderen
> Boards, über den USB-Controller dranhängt.

Ist schon geklärt: das ist hier nicht der Fall; USB und SATA sind 
definitiv getrennt voneinander.

> Auch wäre zu prüfen, ob das
> SSD überhaupt mehr hergeben kann – mal an einen richtigen Rechner
> klemmen und gucken, was da für Zahlen rausfallen?

Also, das ist schon gegeben: die SSD hat sowieso vorher am Laptop 
gehangen, da bringt sie um die 500 MB/s (die SSD ist SATA-III). Und auch 
verschiedene SSDs wurden getestet.

: Bearbeitet durch User
von S. R. (svenska)


Lesenswert?

Mutluit M. schrieb:
> Aber in der SSD/HDD selbst werkelt doch eine noch
> kleinere CPU drin, sogar so ein oller 8051-CPU
> aus dem letzten Jahrtausend: der schafft es
> doch auch, sogar SATA-III mit seinen 600 MB/s.

Nö, der schafft das nicht. Der spricht ein bisschen Protokoll und 
steuert ein bisschen Logik an.

Der eigentliche Datentransfer läuft an dem Controller komplett vorbei.

von Mutluit M. (mutluit)


Lesenswert?

S. R. schrieb:
> Mutluit M. schrieb:
>> Aber in der SSD/HDD selbst werkelt doch eine noch
>> kleinere CPU drin, sogar so ein oller 8051-CPU
>> aus dem letzten Jahrtausend: der schafft es
>> doch auch, sogar SATA-III mit seinen 600 MB/s.
>
> Nö, der schafft das nicht. Der spricht ein bisschen Protokoll und
> steuert ein bisschen Logik an.
>
> Der eigentliche Datentransfer läuft an dem Controller komplett vorbei.

Komm, erzähl weiter! :-)

von c.m. (Gast)


Lesenswert?

was sagt "hdparm -tT /dev/sdX"?
besonders die cache reads?

von Mutluit M. (mutluit)


Lesenswert?

c.m. schrieb:
> was sagt "hdparm -tT /dev/sdX"?
> besonders die cache reads?

root@r1-3:~# hdparm -tT /dev/sda
/dev/sda:
 Timing cached reads:   912 MB in  2.00 seconds = 455.44 MB/sec
 Timing buffered disk reads: 574 MB in  3.00 seconds = 191.08 MB/sec

root@r1-3:~# hdparm -tT /dev/sdb
/dev/sdb:
 Timing cached reads:   854 MB in  2.00 seconds = 426.47 MB/sec
 Timing buffered disk reads: 570 MB in  3.01 seconds = 189.39 MB/sec

von Mutluit M. (mutluit)


Lesenswert?

Da ist gerade ein interessanter Patch zu libata reingekommen,
obwohl es für ein anderes Problem gedacht ist, aber wenn man
die Beschreibung durchliesst, dann könnte es evtl. auch für dieses
Problem nützlich sein:
  https://marc.info/?t=155815645100001&r=1&w=2
libata sitzt ja auf dem SATA-Treiber drauf.

von Jack V. (jackv)


Lesenswert?

Mutluit M. schrieb:
> Aber in der SSD/HDD selbst werkelt doch eine noch kleinere CPU drin,

Naja, aber das Dings muss seine Daten irgendwo abliefern, bzw. von 
irgendwoher bekommen.

von Mutluit M. (mutluit)


Lesenswert?

Mutluit M. schrieb:
> c.m. schrieb:
>> was sagt "hdparm -tT /dev/sdX"?
>> besonders die cache reads?
>
> root@r1-3:~# hdparm -tT /dev/sda
> /dev/sda:
>  Timing cached reads:   912 MB in  2.00 seconds = 455.44 MB/sec
>  Timing buffered disk reads: 574 MB in  3.00 seconds = 191.08 MB/sec
>
> root@r1-3:~# hdparm -tT /dev/sdb
> /dev/sdb:
>  Timing cached reads:   854 MB in  2.00 seconds = 426.47 MB/sec
>  Timing buffered disk reads: 570 MB in  3.01 seconds = 189.39 MB/sec

Hi c.m., du wolltest diese Werte ja sehen. Was sagen sie dir?

von Mutluit M. (mutluit)


Lesenswert?

Mutluit M. schrieb:
> Da ist gerade ein interessanter Patch zu libata reingekommen,
> obwohl es für ein anderes Problem gedacht ist, aber wenn man
> die Beschreibung durchliesst, dann könnte es evtl. auch für dieses
> Problem nützlich sein:
>   https://marc.info/?t=155815645100001&r=1&w=2
> libata sitzt ja auf dem SATA-Treiber drauf.

Hmm. evtl. habe ich da etwas verwechselt, scheint doch nicht für dieses 
Problem relevant zu sein. Sorry.

von Mutluit M. (mutluit)


Lesenswert?

S. R. schrieb:
> Mutluit M. schrieb:
>> Kleinrechner mit 1GHz Dualcore-CPU im SoC (Allwinner A20) mit
>> integriertem SATA-II-Controller (d.h. 300 MB/s max. möglich).
>
> Dieses Forum ist, was dein Problem betrifft, der falsche
> Ansprechpartner. Auf den Mailinglisten von linux-sunxi (bzw. dessen IRC)
> wirst du wahrscheinlich auf mehr Leute treffen, die diese SoCs im Detail
> kennen.

Also, ich habe den Eindruck dass in den Mailinglisten gar nicht mehr 
gross diskutiert wird, sondern nur Patches gepostet und kurz besprochen 
werden.
Aber so eine Fehlersuche werden die wohl nicht machen.

Ok, IRC sollte ich mir vlt. wieder mal nach einer Dekade oder so nochmal 
zulegen; dabei habe ich das Ding immer gehasst, weil nicht effektiv... 
:-)

> Die einzigen Allwinner-Geräte, die ich hier habe, haben kein SATA.
>
> Mutluit M. schrieb:
>> Woran könnte es denn dann liegen, dass die volle Geschwindigkeit
>> von 300 MB/s, insb. beim Lesen, nicht erreicht wird?
>
> Bist du dir sicher, dass die internen Busse (zwischen CPU/DMA und SATA,
> also AHB) überhaupt schnell genug sind? Liegt da sonstiger Traffic
> drauf, und wenn ja, welcher? Besitzt der SATA-Block selbst genug
> Bandbreite, um die 300 MB/s zu verarbeiten?

Tja, gute Fragen. Ich gebe sie mal weiter... :-)

> Allgemeiner gefragt: Gibt es überhaupt Software (z.B. BSP-Kernel von
> Allwinner), die mehr aus dem SoC rausholt?

Wenn ich das wüsste... Ich habe erst seit wenigen Monaten mit dieser SoC 
von Allwinner zu tun, kenne mich folglich noch nicht besonders gut aus 
in dessen Features und Limits.

> Mutluit M. schrieb:
>> Langsam kommt bei mir Zweifel auf, ob das Problem
>> nicht am Linux selbst liegt :-)
>
> Das ist ebenfalls möglich, schließlich liegen zwischen "dd" und "Gerät"
> mehrere Softwaresschichten. Du kannst ja testweise den AHCI-Treiber aus
> Linux ausbauen und einen minimalen Treiber (bare metal) als Maßstab
> benutzen.

Ja, würde ich gerne machen. Aber geht das denn so einfach? Ich müsste ja
praktisch die ganze Funktionalität von libata neuschreiben, oder wie, 
oder was? Gibt's dazu vlt. ein Bsp-Code/Skelleton irgendwo?
Es würde aber am fehlenden SATA-Handbuch von Allwinner scheitern :-(

> Aber wie gesagt, in diesem Forum bist du mit deinem Problem eher falsch.
> Obwohl ich es gut finde, wenn jemand den Allwinner-Chipsätzen zu
> besserem Support verhilft.

Wieso, in A20 ist doch auch eine MCU drin, und dieses Forum ist doch 
über MCUs, oder habe ich da was falsch verstanden?

: Bearbeitet durch User
von Jim M. (turboj)


Lesenswert?

Mutluit M. schrieb:
> Kleinrechner mit 1GHz Dualcore-CPU im SoC (Allwinner A20) mit
> integriertem SATA-II-Controller (d.h. 300 MB/s max. möglich).

Hat der überhaupt den RAM schnell genug angebunden um die 300MB/s 
theoretisch ausnutzen zu können? Die kleinen Chips haben doch oft auch 
einen relativ schmal eingebundenen RAM.

Mutluit M. schrieb:
> Timing cached reads:   854 MB in  2.00 seconds = 426.47 MB/sec

Hui, da ist der RAM wohl wirklich zu lahm, isbesondere wenn da noch 
Grafik o.ä. mit dran hängt.

Zum Vergleich:
1
# PC mit DDR2-800, 128 Bit
2
Timing cached reads:   2200 MB in  2.00 seconds = 1100.59 MB/sec
3
4
# PC mit DDR-3 (Takt habe ich vergessen) 128 Bit
5
Timing cached reads:   5056 MB in  2.00 seconds = 2529.15 MB/sec

Die 300 MB/s würden die RAM Anbindung beim OP zu mehr als 50% 
auslasten...

von S. R. (svenska)


Lesenswert?

Mutluit M. schrieb:
>> Der eigentliche Datentransfer läuft
>> an dem [8051] Controller komplett vorbei.
> Komm, erzähl weiter! :-)

Bei SD-Karten gibt es einen Controller, der das SD-Protokoll zum Host 
spricht (ist auch oft ein 8051). Der muss nicht schnell sein, denn er 
verarbeitet nur die Requests vom Host.

Neben dem Controller gibt es dann noch einen separaten DMA-Controller, 
der vom 8051 gesteuert wird und mit den Datenpins gemultiplext wird. Das 
heißt, die Daten fließen vom NAND-Baustein direkt zu den Pins und nicht 
durch den 8051 durch.

Ich gehe mal schlicht davon aus, dass eine SSD nicht anders aufgebaut 
ist. Die Steuerlogik interessieren die Daten ohnehin nicht, also kann 
man die auch einfach vorbeileiten.

Mutluit M. schrieb:
> Also, ich habe den Eindruck dass in den Mailinglisten gar nicht
> mehr gross diskutiert wird, sondern nur Patches gepostet und kurz
> besprochen werden.

Richtig, weil die eigentliche Diskussion oft im IRC stattfindet. Niemand 
will die gesamte Mailingliste mit Informationen zuspammen, die 
vielleicht nur 2-3 Leute interessieren.

Mutluit M. schrieb:
> Ok, IRC sollte ich mir vlt. wieder mal nach einer Dekade
> oder so nochmal zulegen; dabei habe ich das Ding immer gehasst,
> weil nicht effektiv... :-)

Bei sämtlichen (halbwegs aktiven) Opensource-Projekten bin ich im IRC 
immer zügig auf kompetente Personen getroffen. Natürlich muss man ein 
Auge auf die Zeitzonen haben, ansonsten ist das übliche Vorgehen, dass 
man seine Frage stellt und dann wartet, bis jemand reagiert.

Mutluit M. schrieb:
>> Gibt es überhaupt Software (z.B. BSP-Kernel von
>> Allwinner), die mehr aus dem SoC rausholt?
> Wenn ich das wüsste...

Die Grundannahme ist, dass Allwinner die Chips genauer kennt als die 
Opensource-Community, die ausschließlich mit (reduzierten) Datenblättern 
und Reverse Engineering arbeiten muss. Meine Erfahrung ist, dass 
BSP-Kernel die Hardware besser unterstützen (dafür sind sie alt und mit 
schlechtem Code mies zusammengehackt).

Mutluit M. schrieb:
> Aber geht das [Treiber schreiben] denn so einfach?

Nein. Aber du musst ja keinen vollständigen Linux-Treiber schreiben. 
Wieviel Aufwand das ist, kann ich nicht einschätzen, mit SATA kenne ich 
mich nicht aus; ich habe vor langer Zeit mal mit dem UIO-Framework 
gearbeitet - aber keine Ahnung, ob man damit 300 MB/s hinbekommen kann.

Mutluit M. schrieb:
>> Aber wie gesagt, in diesem Forum
>> bist du mit deinem Problem eher falsch.
> Wieso, in A20 ist doch auch eine MCU drin, und dieses Forum
> ist doch über MCUs, oder habe ich da was falsch verstanden?

Naja, die meisten Themen handeln von Elektronik, Programmieren, kleine 
Mikrocontroller (hauptsächlich 8-Bit AVR oder Cortex-M3/M4), Analog- 
oder Hardwaredesign. Dein A20 ist eine andere Hausnummer.

Als Vergleich: Du kommst mit deinem halbwegs aktuellen 
Elektro-Hybridauto in ein Forum, was sich hauptsächlich mit Fahrrädern, 
Mopeds, Rasenmähern, Gabelstaplern und Traktoren befasst. Du bist also 
nicht komplett falsch, aber so richtig on-topic ist das auch nicht. :-)

: Bearbeitet durch User
von Heinz M. (subi)


Lesenswert?

In der Theorie sind es 300 MB/s und in der Praxis sind 250 MB/s ein 
guter Wert. 300 MB/s ist die maximale Übertragungsgeschwindigkeit der 
Schnittstelle unter optimalen Bedingungen und damit kein Wert den du je 
messen können wirst. Selbst High End Systeme erreichen nur ca. 280 MB/s.

Wenn aus sportlichem Ehrgeiz das Maximum rausgeholt werden soll ok.

Wenn es aus Bedenken ist, dass die Performance darunter leidet:
- Für Hochauflösende Inhalte ist die CPU/GPU zu lahm
- Als NAS/Fileserver sind alle anderen Schnittstellen bedeutend 
langsamer
- Für flüssiges Arbeiten ist die reine Übertragungsgeschwindigkeit 
völlig unwichtig. Selbst eine SSD an USB 2.0 (<60 MB/s) erzeugt einen 
Wow Effekt gegenüber einer HDD an Sata2 mit gemessenen 115 MB/s. Gleiche 
SSD an Sata2 mit ca. 250 MB/s gemessen ist nur ein minimaler Unterschied 
spürbar zu USB 2.0.

Hier ist Lesestoff mit Tests warum das so ist (Seite 4 bis 7):
https://www.tomshw.de/2013/04/22/ssd-upgrade-sata3_gbs-sata6_gbs/all/1/

von foobar (Gast)


Lesenswert?

MMn gehst du ziemlich blauäugig an die Sache ran.  Nur, weil ein 
Standard eine bestimmte Datenrate spezifiziert, heißt das nicht, dass 
alle Nutzer diese auch voll ausreizen können - häufig ist genau das 
Gegenteil der Fall: man nimmt einen neueren, schnelleren Standard, bis 
die Geräte nicht mehr mithalten können.  So ist sichergestellt, dass der 
Standard selbst nicht zum Flaschenhals wird und man das Gerät selbst 
voll ausreizen kann.

So ein SoC ist kein trivialer Chip, es ist ein kompletter, ziemlich 
moderner Computer mit diversen, transaktionsgesteuerten Bussen (alle 
einzeln getaktet), ein oder mehre Busmatrixen, die die Busse verbinden 
(ggf mit Synchronisation, mit Zugriffsprioritäten, Buffern, etc) und ne 
riesige Zahl von angeschlossenen Geräten (inkl CPU, RAM, Flash, 
[3d-]Grafik).  Das so zu konfigurieren, dass unter allen 
Betriebsbedingungen alle Geräte zuverlässig arbeiten, ist nicht trivial 
und braucht insb genaue Kenntnisse über die Verschaltung an sich, der 
zur Verfügung stehenden Bandbreiten und Transaktionsraten, sowie die 
benötigte Bandbreite und Latenz der einzelnen Geräte.  Allwinner wird 
ordentlich gerechnet und experimentiert haben, bis sie ein 
zufriedenstellendes Setup gefunden haben - evtl mit dem Kompromiss, dass 
z.B. SATA oder Gb-Ethernet nicht die maximal mögliche Datenrate 
erreichen.  Dafür läuft es dann aber auch mit einem einzelnen RAM-Chip 
sicher.

Ich fand deinen SATA-Patch schon ziemlich bedenklich: du erhöhst mal 
einfach die Burstlänge des SATA-Kontrollers.  Das bedeutet gleichzeitig, 
dass die Latenz für andere erhöht wird.  Wenn man Pech hat, laufen jetzt 
FIFOs über und man hat Datenverlust (Sorry, das Ethernetpaket konnte ich 
nicht rechtzeitig ins RAM schreiben, hab's weggeschmissen; oder der 
Videokontroller erzeugt ein paar Blitzer, weil er nicht genügend schnell 
ans Video-RAM kommt).  Im schlimmsten Fall gibt's Lock-ups und das ganze 
System steht.  Sowas zu testen ist nicht trivial und benötigt einiges an 
Wissen und Erfahrung - ich bezweifel, dass du irgendwas in der Richtung 
getestet hast ...

von Mutluit M. (mutluit)


Lesenswert?

Jim M. schrieb:
> Mutluit M. schrieb:
>> Kleinrechner mit 1GHz Dualcore-CPU im SoC (Allwinner A20) mit
>> integriertem SATA-II-Controller (d.h. 300 MB/s max. möglich).
>
> Hat der überhaupt den RAM schnell genug angebunden um die 300MB/s
> theoretisch ausnutzen zu können? Die kleinen Chips haben doch oft auch
> einen relativ schmal eingebundenen RAM.
>
> Mutluit M. schrieb:
>> Timing cached reads:   854 MB in  2.00 seconds = 426.47 MB/sec
>
> Hui, da ist der RAM wohl wirklich zu lahm, isbesondere wenn da noch
> Grafik o.ä. mit dran hängt.
>
> Zum Vergleich:
>
1
> 
2
> # PC mit DDR2-800, 128 Bit
3
> Timing cached reads:   2200 MB in  2.00 seconds = 1100.59 MB/sec
4
> 
5
> # PC mit DDR-3 (Takt habe ich vergessen) 128 Bit
6
> Timing cached reads:   5056 MB in  2.00 seconds = 2529.15 MB/sec
7
>
>
> Die 300 MB/s würden die RAM Anbindung beim OP zu mehr als 50%
> auslasten...

Interessante Analyse, Jim. Danke.

Ich möchte nicht overclocken.
RAM bei diesen A20-Geräten ist mit 432 MHz getaktet (480 MHz sei auch 
möglich, habe ich irgendwo gelesen), CPU bis 960 MHz (oder bis 1008 MHz 
oder bis 1200 MHz in verschiedenen Aussagen).
Für SATA werden 3 Takte benutzt (glaube ich): 100 MHz, und die von PLL6 
und PLL62, s.u.).

Ich weiss leider nicht an welchem der Busse das SATA-Modul angeschlossen 
ist bzw. betrieben wird (ARM hat ja einige solcher Busse).
Kannst du mit den anderen Angaben unten etwas anfangen?
1
# ./a.out 
2
PLL1CTL   : a1005410
3
CPU       :  960.00 MHz
4
SYSCLKDIV : 00020192
5
ATB       :  960.00 MHz
6
AXI       :  320.00 MHz
7
AHB       :  300.00 MHz
8
APB0      :  150.00 MHz
9
APB1CLKDIV: 00000000
10
APB1      :   24.00 MHz
11
DRAM      :  432.00 MHz
12
PLL5CTL   : b1049291
13
PLL5      :  864.00 MHz
14
SATA      :  100.00 MHz
15
PLL6      :  600.00 MHz
16
PLL62     : 1200.00 MHz
17
MBUSCLK   : 81000003
18
MBUS      :  300.00 MHz

von Mutluit M. (mutluit)


Lesenswert?

Heinz M. schrieb:
> In der Theorie sind es 300 MB/s und in der Praxis sind 250 MB/s ein
> guter Wert. 300 MB/s ist die maximale Übertragungsgeschwindigkeit der
> Schnittstelle unter optimalen Bedingungen und damit kein Wert den du je
> messen können wirst. Selbst High End Systeme erreichen nur ca. 280 MB/s.

Also, ich habe gelesen dass bei SATA-2 das Maxiumum incl. des 
Protokolloverheads 375 MB/s sei, abzüglich des Overheads verbleiben 300 
MB/s.
Und beim SATA-3.0 750 MB/s Brutto, 600 MB/s Netto.
Der Overhead kommt durch die 8b/10b Codierung bzw. Modulation.

> Wenn aus sportlichem Ehrgeiz das Maximum rausgeholt werden soll ok.

ja, auch :-)
Ich denke dass die Performance dieser Boards für SATA-FullSpeed 
ausreichend ist, nur wundere ich mich, wieso es in der Praxis nicht 
erreicht wird, und möchte gerne den wahren Grund wissen bzw. 
lokalisieren woran es letzendlich liegt.

> Wenn es aus Bedenken ist, dass die Performance darunter leidet:
> - Für Hochauflösende Inhalte ist die CPU/GPU zu lahm
> - Als NAS/Fileserver sind alle anderen Schnittstellen bedeutend
> langsamer
> - Für flüssiges Arbeiten ist die reine Übertragungsgeschwindigkeit
> völlig unwichtig. Selbst eine SSD an USB 2.0 (<60 MB/s) erzeugt einen
> Wow Effekt gegenüber einer HDD an Sata2 mit gemessenen 115 MB/s. Gleiche
> SSD an Sata2 mit ca. 250 MB/s gemessen ist nur ein minimaler Unterschied
> spürbar zu USB 2.0.
>
> Hier ist Lesestoff mit Tests warum das so ist (Seite 4 bis 7):
> https://www.tomshw.de/2013/04/22/ssd-upgrade-sata3_gbs-sata6_gbs/all/1/

Interessant. Aber ich wundere mich, warum die Tester sich nicht 
gewundert haben darüber dass bei einigen/vielen der Tests die 
Lesegeschwindigkeit signifikant kleiner ausfällt als die 
Schreibgeschwindigkeit.
Oder interpretiere vlt. nur ich das falsch?

von Mutluit M. (mutluit)


Lesenswert?

foobar schrieb:
> MMn gehst du ziemlich blauäugig an die Sache ran.  Nur, weil ein
> Standard eine bestimmte Datenrate spezifiziert, heißt das nicht, dass
> alle Nutzer diese auch voll ausreizen können - häufig ist genau das
> Gegenteil der Fall: man nimmt einen neueren, schnelleren Standard, bis
> die Geräte nicht mehr mithalten können.  So ist sichergestellt, dass der
> Standard selbst nicht zum Flaschenhals wird und man das Gerät selbst
> voll ausreizen kann.

Wie ich schon sagte, ich denke die Leistung der SoC sollte ausreichend 
sein für SATA FullSpeed, zumindest für das (uncached) Lesen.

> Ich fand deinen SATA-Patch schon ziemlich bedenklich: du erhöhst mal
> einfach die Burstlänge des SATA-Kontrollers.  Das bedeutet gleichzeitig,
> dass die Latenz für andere erhöht wird.  Wenn man Pech hat, laufen jetzt
> FIFOs über und man hat Datenverlust (Sorry, das Ethernetpaket konnte ich
> nicht rechtzeitig ins RAM schreiben, hab's weggeschmissen; oder der
> Videokontroller erzeugt ein paar Blitzer, weil er nicht genügend schnell
> ans Video-RAM kommt).  Im schlimmsten Fall gibt's Lock-ups und das ganze
> System steht.  Sowas zu testen ist nicht trivial und benötigt einiges an
> Wissen und Erfahrung - ich bezweifel, dass du irgendwas in der Richtung
> getestet hast ...

Das war zunächst praktisch nur eine Machbarkeitsstudie. Da ich nicht ein 
Fuhrpark voll mit all den betroffenen Boards habe, habe ich das Testen 
den Leuten überlassen (RFC - Request for Comments).
Meine eigenen Tests an meinen beiden Banana Pi SBCs zeigen soweit keine 
Nachteile. Auch andere (z.B. Armbian und CNX, s.u.) die den Patch 
getestet haben, sagen dass es funktioniert und keine Nachteile 
ersichtlich sind. Der Thomas Kaiser hatte geschrieben dass er gerade 
Tage-/Wochenlange Stresstests durchführt mit einem anderen Dateisystem 
als ext4 (ich glaube Btrfs).
https://www.cnx-software.com/2019/05/13/how-one-line-of-code-tripled-allwinner-a20-sata-write-performance/
https://forum.armbian.com/topic/10352-a20-sata-write-speed-improvement/?tab=comments#comment-78963

von Mutluit M. (mutluit)


Lesenswert?

In diesem Zusammenhang suche ich noch ein weiteres SBC-Modell zum 
Testen: ich glaube der Banana Pi M2 Berry benutzt den selben Linux SATA 
Treiber ahci_sunxi (kann das jemand bestätigen?):
Hier meine Suchanzeige hier:
Beitrag "[S] Gebrauchten Banana Pi M2 Berry"

: Bearbeitet durch User
von Heinz M. (subi)


Lesenswert?

Du merkst in der Praxis genausowenig Nachteile, wie Vorteile. Wenn du 
zum Beispiel die Blöcke sehr stark vergrößerst, mag das beim Test 
einiges bringen und schöne große Zahlen stehen auf dem Bildschirm. Was 
jedoch beim praktischen Betrieb zum Nachteil wird, weil mehr 
Speicherplatz belegt wird und immer große Blöcke geschrieben/gelesen 
werden müssen, obwohl keine großen Daten anfallen.

Die 8b/10b Codierung ist der statische Teil des Overheads. Es gibt 
jedoch auch dynamische Teile, die zum Beispiel von der Sektorgröße, der 
Datenfragmentierung(ja das gibt es auch bei SSD) etc. abhängen. Aber 
auch Latenzzeiten der einzelnen Komponenten (z.B. Controller im PC, 
Controller in der SSD). Dann noch Zusatzfeatures die nicht jede SSD 
unterstützt und und und. Weil es bei so vielen Abhängigkeiten unmöglich 
ist zu sagen, dass die Schnittstelle ganz exakt 287,35846849 MB/s 
übertragen kann, sagt man einfach, dass bei gegebener Codierung und 
gegebenem Takt absolut maximal 300 MB/s theoretisch möglich wären. Also 
in der Praxis auf keinen Fall drüber, aber viel drunter.

Schau zum Beispiel mal bei SSDs. SATA3 (600MB/s) SSDs sind immer 
angegeben als max. 550 MB/s lesen an SATA3 und max. 285 MB/s lesen an 
SATA2 (Werte können je nach Hersteller abweichen). Die SSD wäre schnell 
genug, aber die Schnittstelle schafft es nicht. Und wie gesagt bis auf 
ganz wenige Ausnahmen ist die maximale Übertragungsgeschwindigkeit 
völlig zu vernachlässigen und viel wichtiger ist die Latenz. Deswegen 
NVMe besser als SATA/IDE/USB/... SSD, besser als HDD. Und dann erst 
Erbsenzählerei der Übertragungsgeschwindigkeit.

Schau mal ob du ein Tool wie Ksysguard drauf bekommst. Dort kannst du 
dir den Festplattendurchsatz anzeigen lassen und ihn unter realen 
Bedingungen beobachten.

Edit: Wegen der ganzen Treiberproblematik suche ich gerade nach x86 
SBCs.

: Bearbeitet durch User
von SATAn der 3. (Gast)


Lesenswert?

Mutluit M. schrieb:

> root@r1-3:~# hdparm -tT /dev/sdb

sdb? Hast du einen PMP an dem A20 hängen?

von Mutluit M. (mutluit)


Lesenswert?

SATAn der 3. schrieb:
> Mutluit M. schrieb:
>
>> root@r1-3:~# hdparm -tT /dev/sdb
>
> sdb? Hast du einen PMP an dem A20 hängen?

Ja, zufällig :-)

Hat aber nix mit dem Problem zu tun.

von Mutluit M. (mutluit)


Lesenswert?

Heinz M. schrieb:
> Du merkst in der Praxis genausowenig Nachteile, wie Vorteile. Wenn du
> zum Beispiel die Blöcke sehr stark vergrößerst, mag das beim Test
> einiges bringen und schöne große Zahlen stehen auf dem Bildschirm. Was
> jedoch beim praktischen Betrieb zum Nachteil wird, weil mehr
> Speicherplatz belegt wird und immer große Blöcke geschrieben/gelesen
> werden müssen, obwohl keine großen Daten anfallen.
>
> Die 8b/10b Codierung ist der statische Teil des Overheads. Es gibt
> jedoch auch dynamische Teile, die zum Beispiel von der Sektorgröße, der
> Datenfragmentierung(ja das gibt es auch bei SSD) etc. abhängen. Aber
> auch Latenzzeiten der einzelnen Komponenten (z.B. Controller im PC,
> Controller in der SSD). Dann noch Zusatzfeatures die nicht jede SSD
> unterstützt und und und. Weil es bei so vielen Abhängigkeiten unmöglich
> ist zu sagen, dass die Schnittstelle ganz exakt 287,35846849 MB/s
> übertragen kann, sagt man einfach, dass bei gegebener Codierung und
> gegebenem Takt absolut maximal 300 MB/s theoretisch möglich wären. Also
> in der Praxis auf keinen Fall drüber, aber viel drunter.
>
> Schau zum Beispiel mal bei SSDs. SATA3 (600MB/s) SSDs sind immer
> angegeben als max. 550 MB/s lesen an SATA3 und max. 285 MB/s lesen an
> SATA2 (Werte können je nach Hersteller abweichen). Die SSD wäre schnell
> genug, aber die Schnittstelle schafft es nicht. Und wie gesagt bis auf
> ganz wenige Ausnahmen ist die maximale Übertragungsgeschwindigkeit
> völlig zu vernachlässigen und viel wichtiger ist die Latenz. Deswegen
> NVMe besser als SATA/IDE/USB/... SSD, besser als HDD. Und dann erst
> Erbsenzählerei der Übertragungsgeschwindigkeit.

Ich orientiere mich einzig daran was dd ausspuckt.

> Schau mal ob du ein Tool wie Ksysguard drauf bekommst. Dort kannst du
> dir den Festplattendurchsatz anzeigen lassen und ihn unter realen
> Bedingungen beobachten.

Was KDE??? Nö, man, sowas kommt mir auf keinen Rechner, nichtmal auf den 
PC! :-) KDE ist sowas von Resourcenhungrig (3D-Zeugs) und IMO was für 
verspielte Gamer, also nix für mich :-)

> Edit: Wegen der ganzen Treiberproblematik suche ich gerade nach x86
> SBCs.

Also, ehrlich gesagt, ich habe die Schnauze voll von x86; die Zukunft 
gehört ARM und RISC-V  :-)
Es geht bei mir mehr um den Lerneffekt und Ausreizen der HW als um den 
produktiven Einsatz dessen.

: Bearbeitet durch User
von Heinz M. (subi)


Lesenswert?

ksysguard läuft auch auf allen anderen Desktopumgebungen. Verwende es 
selbst auf LXDE, weil es viel umfangreicher ist als die Alternativen. Es 
gehen natürlich auch Alternativen.

In der Regel heißt Zukunft bei ARM 2-4 Jahre. Dann endet der 
Softwaresupport des Herstellers und das Gefrickel beginnt. Bei x86 10-20 
Jahre. Ein aktuelles Linux (mit abgespecktem Desktop) kann man meist 
ohne Probleme auf 10-20 Jahre alter Standard Hardware installieren.

Klar sind ARMs viel günstiger und bei SBC gibt es viel kleinere und viel 
mehr Auswahl. Aber wenn ich bedenke, dass ich dann alle 2 Jahre viel 
Zeit für das Aufsetzen des neuen Systems benötige und in Summe das 
gleiche zahle, weil ich häufiger wechseln muss, dann nehme ich lieber 
den x86 wo die Chancen sehr gut stehen, dass jede x-beliebige Software 
läuft.

ARM ist nur ein weiterer Schritt in der konsumgeilen 
Wegwerfgesellschaft.

von Mutluit M. (mutluit)


Lesenswert?

Heinz M. schrieb:
> ARM ist nur ein weiterer Schritt in der konsumgeilen
> Wegwerfgesellschaft.

Stimmt, da hast du recht.
ABER: im kapitalistischen System bringt diese Vorgehensweise so eine 
Dynamik mit sich, dass der Fortschritt rasant ist, wie wir gerade jetzt 
erleben, also seit einigen Jahren schon.

Ich meine, das muss kein Nachteil sein, wenn es auf der anderen Seite 
solch enorme Fortschritte mit sich bringt.

Schon jetzt kann man 10 Gigabit Ethernet für ZuHause kaufen für um die 
€70 für 2 NICs mit Kabel. Ich finde die Entwicklungen der letzten Jahre 
so spannend, als da wären insb. die SSD-Revolution, NVMe, und jetzt 
kommen auch erschwingliche 10Gb Ethernet und natürlich auch CPUs mit 
mehr als 8 Kernen usw. usw.
ARM trägt seinen Anteil an diesen erschwinglichen Entwicklungen. Vieles 
davon benutzt ARM-CPUs. Anders gesagt: ARM macht es möglich :-)

: Bearbeitet durch User
von Dampfheuler (Gast)


Lesenswert?

x86 ... im Griff ? Aha.
Kannst du selbst ein BIOS schreiben - natuerlich nicht.
Kannst du einen Treiber schreiben, was Einfaches,
zB Disk ? Ethernet ? USB ? SD Karte ? Was anderes ? - Natuerlich auch 
nicht.

Du bist drauf angewiesen, dass jemand schon einen Treiber geschrieben 
hat.

von Heinz M. (subi)


Lesenswert?

99% der Leute Zuhause benutzen den PC um damit ins Internet zu gehen. 
99% haben zwischen 6 und 50 Mbit/s Internet. Was bringt einem da eine 1 
Gbit/s Netzwerkkarte, geschweige denn ein 10 Gbit/s für satte 70 €? Eine 
20 Jahre alte 100 Mbit/s Netzwerkkarte würde es genauso tun.

99% lasten von den 8 Kernen nicht mal einen aus. 99% sind der Meinung, 
dass es mindestens SATA3 für eine SSD sein muss, dabei wird nicht mal 
annähernd die Grenze von SATA1 erreicht. Du kannst es dir zwar kaufen, 
aber du wirst es ohne es je ausgereizt zu haben wegwerfen.

Und dennoch 99% der Leute wechseln ihr Smartphone spätestens alle 3 
Jahre.

Nicht falsch verstehen, ich bin selbst Hardwarefetischist, aber das ist 
kein Grund für mich alle 2 Jahre einen neuen PC zu kaufen, weil es 
einfach nichts bringt. Und das was du zu kaufen bekommst hat nichts mit 
der Entwicklung zu tun. Die Entwicklung ist immer einige Jahre voraus 
und es wird in kleinen Häppchen auf den Markt geworfen um ja viel Gewinn 
rausschlagen zu können. Wirklich bedeutende Entwicklungen (PCIe, SSD, 
Mehrkernprozessoren) die einen echten Mehrwert bringen und es sich 
dadurch lohnt den PC mal zu erneuern spielen sich über 10 bis 20 Jahre 
ab. Der schnellere Tausch von Elektronik ist nur der Produktlebenszyklus 
und ist nicht für die Entwicklung notwendig. Um beim Thema zu bleiben: 
Man schaue sich allein die Anzahl der Möglicheiten an, mit denen man 
eine SSD am PC anbinden kann, was runtergebrochen eigentlich nur 3 
Entwicklungen sind: USB, SATA, PCIe. Alle modernen SSD Schnittstellen 
bauen darauf auf. In der Praxis merkt man kaum einen Unterschied 
zwischen den dreien (außer Spezialanwendungen), wohl aber zwischen HDD, 
SSD und verschiedenen SSD Generationen. Was einem zu der Frage bringt, 
wozu es so viele Schnittstellen für SSD gibt, wenn alle auf 3 
Technologie basieren und innerhalb der Technologie der Mehrwert gegen 0 
geht. Mit anderen Worten: So viele SSD Schnittstellen braucht kein 
Mensch.

Edit: @ Dampfheuler: Ja klar ist man darauf angewiesen. Aber bei x86 
sind die Treiber kompatibler. Das heißt wenn irgendwann mal jemand einen 
Treiber dafür geschrieben hat, dann ist die Wahrscheinlichkeit groß, 
dass es auf verwandten Systemen läuft. Bei ARM nicht.

: Bearbeitet durch User
von Mutluit M. (mutluit)


Lesenswert?

@Heinz M., es nennt sich Wettbewerb der Systeme oder Der Lauf der 
Geschichte.
Z.B. Kampf USB vs. SATA: der andere muss mitziehen mit einem neuem, 
schnelleren Standard wenn er sein Marktanteil nicht an den anderen 
verlieren will...
Kann man auch "Technische Evolution" bezeichnen :-)

Ich finde es gut, schliesslichlich müssen wir so schnell wie möglich den 
Warp-Drive entwickeln und den Weltraum besiedeln, da es hier auf der 
Erde langsam zu eng wird und die Ressourcen zu neige gehen.
Ich empfehle Star Trek Enterprise (insb. die Serie mit Captain Jonathan 
Archer :-) Gibt's auf netflix.de.

Aber, wir kommen etwas vom Thema ab... :-)

: Bearbeitet durch User
von S. R. (svenska)


Lesenswert?

Heinz M. schrieb:
> Ein aktuelles Linux (mit abgespecktem Desktop) kann man meist
> ohne Probleme auf 10-20 Jahre alter Standard Hardware installieren.

Dank der "Software-as-a-Service"-Idioten wird ein reiner Desktop aber 
zunehmend unhandlicher, weil die Software nicht nur veraltet, sondern 
total ausfällt, und die "Web-Development"-Idioten sorgen dafür, dass ein 
15 Jahre alter PC nur noch eingeschränkt fürs Web taugt. Leider.

Dampfheuler schrieb:
> Kannst du selbst ein BIOS schreiben - natuerlich nicht.

Kannst du ein BIOS für einen Qualcomm Snapdragon schreiben?
Natürlich nicht. Obwohl da ein UEFI drauf läuft.

> Kannst du einen Treiber schreiben, was Einfaches,
> zB Disk ? Ethernet ? USB ? SD Karte ?
> Was anderes ? - Natuerlich auch nicht.

IDE, USB-MSC und viele SATA-Chipsätze sind frei dokumentiert. Ebenso 
viele Netzwerkchipsätze (vor allem Intel). Dokumente zu OHCI, UHCI und 
EHCI sind ebenso verfügbar. Bei SD-Karten ist die SPI-Ansteuerung 
offengelegt, wie man hier im Forum ständig sieht.

Es hängt von der Hardware und ihrer Komplexität ab, ob ich das kann 
(und mit welcher Qualität). Aber glücklicherweise reicht es ja schon, 
wenn einer es kann (und die Quellen veröffentlicht). Nur geschlossene 
Systeme bedürfen einer ständigen Neuentwicklung unterschiedlicher Räder.

Mutluit M. schrieb:
> ABER: im kapitalistischen System bringt diese Vorgehensweise
> so eine Dynamik mit sich, dass der Fortschritt rasant ist,
> wie wir gerade jetzt erleben, also seit einigen Jahren schon.

Ich finde es interessant, dass du auf der einen Seite die massive 
Verschwendung von Resourcen im Namen des "Fortschritts" gutheißt, 
während du auf der anderen Seite den Resourcenmangel auf der Erde als 
Begründung für "wir müssen den Weltraum erobern" nimmst. Das ist 
selbstverschuldet.

von Mutluit M. (mutluit)


Lesenswert?

S. R. schrieb:
> Mutluit M. schrieb:
>> ABER: im kapitalistischen System bringt diese Vorgehensweise
>> so eine Dynamik mit sich, dass der Fortschritt rasant ist,
>> wie wir gerade jetzt erleben, also seit einigen Jahren schon.
>
> Ich finde es interessant, dass du auf der einen Seite die massive
> Verschwendung von Resourcen im Namen des "Fortschritts" gutheißt,
> während du auf der anderen Seite den Resourcenmangel auf der Erde als
> Begründung für "wir müssen den Weltraum erobern" nimmst. Das ist
> selbstverschuldet.

Ist mMn alles nur Pipifax. Wenn wir erstmal den Weltraum erobern, dann 
kann jeder einzelne Erdenbürger sich seinen eigenen Planeten/Mond/Sonne 
etc.in Besitz nehmen, gibt ja Billionen von denen da draussen im 
Weltraum.
Was fehlt ist der Warp-Drive. Und dafür lohnt es sich wenn die 
Entwicklung auch chaotisch, unkoordiniert, vermeintlich auch 
verschwenderisch abläuft.
Man muss nur etwas Fantasie haben.
IMHO.

Und:
Einen wichtigen Aspekt vergessen die Nostalgiker: mit jeder neuen 
Chip-Generation sinkt auch der Stromverbrauch. Wieso dann noch an altem 
hängen?

: Bearbeitet durch User
von S. R. (svenska)


Lesenswert?

Mutluit M. schrieb:
> Wenn wir erstmal den Weltraum erobern,
dann haben wir andere Probleme, die wir bisher noch nichtmal abschätzen 
können. Das hatten wir schonmal, Geschichte wiederholt sich.

Mutluit M. schrieb:
> mit jeder neuen Chip-Generation sinkt auch der Stromverbrauch.
> Wieso dann noch an altem hängen?

Sowohl Entwicklung als auch Herstellung eines Chips verbraucht viel Zeit 
und Energie. Verglichen mit dem alten, schon produzierten und im Einsatz 
befindlichen Chips sogar unendlich viel. Wieviel effizienter muss der 
neue Chip also sein, damit sich das lohnt?

Ich bin mir ziemlich sicher, dass ein zweijährlicher "bitte alles 
neukaufen"-Zyklus da nicht drunter fällt.

Davon abgesehen: Retro-Technologie ist ähnlich wie Geschichte etwas, was 
zu Lernzwecken extrem nützlich ist. Das heißt nicht, dass man alte 
Technik aus Prinzip überall produktiv einsetzen muss - aber sie 
einsetzen kann, wenn neue Technik keine Vorteile bringt. Was erstaunlich 
oft der Fall ist.

Ein P3/800 (oder meinetwegen ein Raspberry Pi) reicht für so ziemlich 
alle Office-Aufgaben aus. Warum brauchen wir jetzt nochmal 
Quadcore-Systeme?

von Mutluit M. (mutluit)


Lesenswert?

S. R. schrieb:
> Mutluit M. schrieb:
>> Wenn wir erstmal den Weltraum erobern,
> dann haben wir andere Probleme, die wir bisher noch nichtmal abschätzen
> können.

Ja und? Hast du Angst vor dem Unbekannten? Vor Neuem?
Der Mensch ist ein Entdecker, liegt in seiner Natur. Lass dich insb. von 
linken Ideologien nicht vereinnahmen, den Schwarzmalern und Bremsern.

> Mutluit M. schrieb:
>> mit jeder neuen Chip-Generation sinkt auch der Stromverbrauch.
>> Wieso dann noch an altem hängen?
>
> Sowohl Entwicklung als auch Herstellung eines Chips verbraucht viel Zeit
> und Energie. Verglichen mit dem alten, schon produzierten und im Einsatz
> befindlichen Chips sogar unendlich viel. Wieviel effizienter muss der
> neue Chip also sein, damit sich das lohnt?
>
> Ich bin mir ziemlich sicher, dass ein zweijährlicher "bitte alles
> neukaufen"-Zyklus da nicht drunter fällt.
>
> Davon abgesehen: Retro-Technologie ist ähnlich wie Geschichte etwas, was
> zu Lernzwecken extrem nützlich ist. Das heißt nicht, dass man alte
> Technik aus Prinzip überall produktiv einsetzen muss - aber sie
> einsetzen kann, wenn neue Technik keine Vorteile bringt. Was erstaunlich
> oft der Fall ist.
>
> Ein P3/800 (oder meinetwegen ein Raspberry Pi) reicht für so ziemlich
> alle Office-Aufgaben aus. Warum brauchen wir jetzt nochmal
> Quadcore-Systeme?

Für neue Technologien wie selbstfahrende Autos, FlugTaxis, KI usw.
Rechenpower kann nie genug da sein, weil man eben dann grössere Probleme 
angehen wird...

Nach deiner Meinung dürfte es ja gar keinen Forschritt geben: einmal 
entwickeln und gut is. Das ist aber falsche Denke.

Ständige Verbesserung --> Evolution --> Perfektion --> Der Lauf der 
Geschichte

Und niemand wird gezwungen etwas neues zu kaufen. Der Markt regelt 
alles, sowohl für Anbieter als auch Konsumenten: Angebot und Nachfrage. 
Jeder macht schon seine Kalkulation...

: Bearbeitet durch User
von S. R. (svenska)


Lesenswert?

Mutluit M. schrieb:
>>> Wenn wir erstmal den Weltraum erobern,
>> dann haben wir andere Probleme, die wir
>> bisher noch nichtmal abschätzen können.
> Ja und?

Ich wollte das Thema wegdrücken, weil definitiv Off-Topic. :-)

Mutluit M. schrieb:
> Rechenpower kann nie genug da sein,
> weil man eben dann grössere Probleme angehen wird...

Im Augenblick wird das vor allem gegen die Endkunden eingesetzt,
aber das ist ebenfalls ein anderes Thema.

von Mutluit M. (mutluit)


Lesenswert?

S. R. schrieb:
> Mutluit M. schrieb:
>> Rechenpower kann nie genug da sein,
>> weil man eben dann grössere Probleme angehen wird...
>
> Im Augenblick wird das vor allem gegen die Endkunden eingesetzt,

Noe, Endkunden haben auch viel Macht: denn, wer kauft denn heute noch 
Intel-Chips, nach all den Skandalen/Bugs etc... :-)

von Heinz M. (subi)


Lesenswert?

Mutluit M. schrieb:
> Und:
> Einen wichtigen Aspekt vergessen die Nostalgiker: mit jeder neuen
> Chip-Generation sinkt auch der Stromverbrauch. Wieso dann noch an altem
> hängen?

Wegen der Erzeugungsenergie wurde ja bereits geschrieben. Bei 
klassischen Geräten wo es immer wieder um Effizienz geht (Kühlschrank, 
Waschmaschine, LED Beleuchtung) sind es je nach Nutzung und 
Energieeffizienz des alten Gerätes 4 bis 15 Jahre, bis sich das 
finanziell amortisiert hat. Energetisch sollte es beim PC ungefähr 
gleich sein. Das heißt je häufiger man wechselt, desto mehr Energie wird 
verschwendet.

Übrigens nicht nur Energie. Wie viele Stunden muss sich der 
Administrator mit dem neuen PC beschäftigen und wie viel Zeit spart der 
Mitarbeiter dadurch pro Tag. Beim Wechsel von HDD auf SSD lohnt sich das 
je nach Branche oft. Aber für einen 08/15 Arbeits PC lohnt sich der 
Aufwand der neuen Hardware nicht, nur weil das alte Board kein aktuelles 
SATA bietet.

Mutluit M. schrieb:
> Ja und? Hast du Angst vor dem Unbekannten? Vor Neuem?
> Der Mensch ist ein Entdecker, liegt in seiner Natur. Lass dich insb. von
> linken Ideologien nicht vereinnahmen, den Schwarzmalern und Bremsern.
...
> Für neue Technologien wie selbstfahrende Autos, FlugTaxis, KI usw.
> Rechenpower kann nie genug da sein, weil man eben dann grössere Probleme
> angehen wird...
>
> Nach deiner Meinung dürfte es ja gar keinen Forschritt geben: einmal
> entwickeln und gut is. Das ist aber falsche Denke.
>
> Ständige Verbesserung --> Evolution --> Perfektion --> Der Lauf der
> Geschichte
>
> Und niemand wird gezwungen etwas neues zu kaufen. Der Markt regelt
> alles, sowohl für Anbieter als auch Konsumenten: Angebot und Nachfrage.
> Jeder macht schon seine Kalkulation...

Ich habe eher Angst davor, was der Mensch im Weltraum macht, als vor dem 
Weltraum.

Nichts gegen moderne Technik und auch nichts dagegen große Probleme zu 
lösen. Aber schau dir mal an wie die technischen Probleme gelöst werden. 
Hauptsache man kann es irgendwie verticken. Entwicklung/Evolution ist 
nur ein notwendiges Übel um mit der Konkurenz mithalten zu können. Und 
auch dann werden durch Inkompatibilitäten künstliche Entwicklungsbremsen 
eingebaut.

Die Menschheit ist momentan gar nicht in der Lage große Probleme zu 
lösen. Deswegen lass sie lieber auf der Erde.

von Mw E. (Firma: fritzler-avr.de) (fritzler)


Lesenswert?

Mutluit M. schrieb:
> Und:
> Einen wichtigen Aspekt vergessen die Nostalgiker: mit jeder neuen
> Chip-Generation sinkt auch der Stromverbrauch. Wieso dann noch an altem
> hängen?

Gilt nicht bei GPUs und INtel CPUs ;)
Wenn ich bedenke was meine alte voodoo3000 an Strom wollte und jetzt 
meine R9 270.

Aber du fällst seit deiner Anmeldung hier eh nur durch Dummlaberei auf, 
siehe dein ADC Fred.

von S. R. (svenska)


Lesenswert?

Mutluit M. schrieb:
> Noe, Endkunden haben auch viel Macht: denn, wer kauft denn heute noch
> Intel-Chips, nach all den Skandalen/Bugs etc... :-)

Glaubst du ernsthaft, dass moderne ARM-Chips die gleichen Probleme nicht 
haben? Um die hohen Ausführungsgeschwindigkeiten zu erreichen, nutzen 
alle Hersteller die gleichen Ansätze - und wenn es konkurrenzfähige, 
performante RISC-V-Implementationen gibt, dann werden auch die anfällig 
sein.

von Johnny B. (johnnyb)


Lesenswert?

Dampfheuler schrieb:
> x86 ... im Griff ? Aha.
> Kannst du selbst ein BIOS schreiben - natuerlich nicht.
> Kannst du einen Treiber schreiben, was Einfaches,
> zB Disk ? Ethernet ? USB ? SD Karte ? Was anderes ? - Natuerlich auch
> nicht.
>
> Du bist drauf angewiesen, dass jemand schon einen Treiber geschrieben
> hat.

Wer noch nie einen eigenen Compiler programmiert hat ist eh kein 
richtiger Programmierer. (sagte Terry Davis)
https://youtu.be/gBE6glZNJuU

von Mutluit M. (mutluit)


Lesenswert?

Mw E. schrieb:
> Mutluit M. schrieb:
>> Und:
>> Einen wichtigen Aspekt vergessen die Nostalgiker: mit jeder neuen
>> Chip-Generation sinkt auch der Stromverbrauch. Wieso dann noch an altem
>> hängen?
>
> Gilt nicht bei GPUs und INtel CPUs ;)
> Wenn ich bedenke was meine alte voodoo3000 an Strom wollte und jetzt
> meine R9 270.

Ja, ein sehr gutes Beispiel :-)


> Aber du fällst seit deiner Anmeldung hier eh nur durch Dummlaberei auf,
> siehe dein ADC Fred.

Komm, du hast das Wesentliche an dem ADC-Thema wohl missverstanden.
Lass mich versuchen den Sachverhalt wie folgt zu erklären bzw. 
aufzuklären:
1
Vieles in der Natur ist bekanntlich Normalverteilt (Gaussche Glockenkurve).
2
Demnach nimmt der 3-Sigma-Vertrauensbereich (d.h. -3sigma bis +3sigma)
3
um den Mittelwert genau 99.74% der Gesamtfläche ein, d.h. der Rest
4
an den beiden Seiten beträgt dann insg. 100 - 99.74 = 0.26% bzw. je 0.13% an jeder Seite.
5
6
Aber in diesem Fall muss man die einseitige Normalverteilung (1-sided significance level) anwenden:
7
  SL1 = (SL2    + 1) / 2
8
      = (0.9974 + 1) / 2
9
      = 0.9987
10
D.h. 1 - 0.9987 = 0.0013 = 0.13% liegen ausserhalb des 3sigma Bereichs (d.h. drunter), sind also sog. Outlier.
11
S.a. https://de.wikipedia.org/wiki/Normalverteilung#Standardabweichung_der_Normalverteilung
12
(dort bei 3sigma genauer gerechnet: 99.73% statt 99.74% hier oben)
13
14
Demnach beträgt die Anzahl der Leser die das Thema gänzlich missverstehenden haben ca.0.13%.
15
Ach, das ist eine verschwindend geringe Anzahl, also in diesem Fall vernachlässigbare Outlier die man einfach ignorieren kann...  :-)

: Bearbeitet durch User
von Jim M. (turboj)


Lesenswert?

S. R. schrieb:
> Ein P3/800 (oder meinetwegen ein Raspberry Pi) reicht für so ziemlich
> alle Office-Aufgaben aus.
> Warum brauchen wir jetzt nochmal Quadcore-Systeme?

Du hast noch nie einen abgestürzten IE auf einem P3/800 erlebt, sonst 
würdest Du nicht fragen.

Und moderne Systeme brauchen deutlich weniger Strom im IDLE. Originales 
Win98SE hatte die CPU noch nicht mal schlafen gelegt wenn nix zu zun 
war.

von Mutluit M. (mutluit)


Lesenswert?

Jim M. schrieb:
> S. R. schrieb:
>> Ein P3/800 (oder meinetwegen ein Raspberry Pi) reicht für so ziemlich
>> alle Office-Aufgaben aus.
>> Warum brauchen wir jetzt nochmal Quadcore-Systeme?
>
> Du hast noch nie einen abgestürzten IE auf einem P3/800 erlebt, sonst
> würdest Du nicht fragen.
>
> Und moderne Systeme brauchen deutlich weniger Strom im IDLE. Originales
> Win98SE hatte die CPU noch nicht mal schlafen gelegt wenn nix zu zun
> war.

Das kann ich voll bestätigen! Ich habe mich auch gefragt, was MS da für 
ein Murks programmiert hat, wo die CPU ständig mit 100% ausgelastet ist, 
auch im Leerlauf!

Sieht man leider sogar heute noch wenn man ins BIOS reingeht: 100% 
CPU-Auslastung bei einigen BIOSsen!

: Bearbeitet durch User
von Mutluit M. (mutluit)


Lesenswert?

Korrektur wg. Typo:

Demnach beträgt die Anzahl der Leser die das Thema gänzlich 
missverstanden haben ca. 0.13%.
Ach, das ist eine verschwindend geringe Anzahl, also in diesem Fall 
vernachlässigbare Outlier die man einfach ignorieren kann... :-)

: Bearbeitet durch User
von Mutluit M. (mutluit)


Lesenswert?

Weiss jemand in diesem Zusammenhang (SATA) um was für ein Gerät es sich 
bei einem "SATA Port Selector" handelt? Wofür wird das in der Praxis 
denn eingesetzt?

Ich hab zwar den folgenden Text gefunden, aber werde daraus nicht 
besonders schlau:
"
Port Selectors
SATA can only have one path active at a time, which is a single point of 
failure. A port selector is basically a failover switch that will switch 
in a fail-over path to storage devices if the primary path fails. A Port 
selector is a 2-input-to-1-output failover switch that will switch a 
storage device to a fail-over path to if the primary path fails. Port 
selectors are small and inexpensive and are manufactured within the SATA 
hard disk caddy or actually on the disk. It is possible to buy external 
port selectors too.
"

von Heinz M. (subi)


Lesenswert?

Klingt wie Dual Porting bei SAS. Bei SAS können 2 PCs auf eine 
Festplatte zugreifen, bzw 2 Kabel an einen Controller geführt werden für 
mehr Durchsatz und Redundanz des Kabels. Mit dem Adapter würde das dann 
auch bei billigen SATA Festplatten funktionieren. Lohnt sich meiner 
Meinung nach nicht wirklich. RAID bzw. Backupserver sind bessere 
Alternativen.

von Mutluit M. (mutluit)


Lesenswert?

Heinz M. schrieb:
> Klingt wie Dual Porting bei SAS. Bei SAS können 2 PCs auf eine
> Festplatte zugreifen, bzw 2 Kabel an einen Controller geführt werden für
> mehr Durchsatz und Redundanz des Kabels. Mit dem Adapter würde das dann
> auch bei billigen SATA Festplatten funktionieren. Lohnt sich meiner
> Meinung nach nicht wirklich. RAID bzw. Backupserver sind bessere
> Alternativen.

Falls du oder jemand anderes sich mit SAS & Co auskennt: ist SAS und 
eSATA eigentlich dasselbe? Was ist der Vorteil und Unterschied von SAS 
ggü SATA?

Und: kann man am normalen SATA auch eSATA anschliessen? Oder sind die 
Kabel doch anders? Handelt es sich bei eSATA-Kabel um nur Datenkabel 
oder ist da Strom auch drin?

Also, ich habe über SATA schon viel gelesen, aber blicke immer noch 
nicht ganz durch in diesem endlosen SATA-Dschungel :-)

Wird echt Zeit dass NVMe breitflächig kommt und dadurch SATA in Rente 
geschickt wird :-)

: Bearbeitet durch User
von S. R. (svenska)


Lesenswert?

Jim M. schrieb:
> Du hast noch nie einen abgestürzten IE auf einem P3/800 erlebt,
> sonst würdest Du nicht fragen.

Was hat denn bitte ein bestimmtes (veraltetes) Programm mit der 
benötigten Rechenleistung für Office-Aufgaben zu tun?

Mutluit M. schrieb:
>> Und moderne Systeme brauchen deutlich weniger Strom im IDLE.
>> Originales Win98SE hatte die CPU noch nicht mal schlafen gelegt
>> wenn nix zu zun war.
>
> Das kann ich voll bestätigen! Ich habe mich auch gefragt,
> was MS da für ein Murks programmiert hat, wo die CPU ständig
> mit 100% ausgelastet ist, auch im Leerlauf!

Ein relevanter Hersteller von Computersystemen hatte ein verbreitetes 
System mit einem BIOS-Bug verkauft, welches bei der Verwendung von HLT 
in der Idle-Loop schlicht abstürzte. Daher wurde entschieden, bei 
Windows 95 kein HLT in die Idle-Loop zu tun. Aus Kompatiblitätsgründen - 
die Microsoft wichtig sind - wurde das für die Win9x-Reihe beibehalten.

Es gibt Tools wie "Rain", die Abhilfe schaffen.

> Sieht man leider sogar heute noch wenn man ins BIOS reingeht:
> 100% CPU-Auslastung bei einigen BIOSsen!

Das nennt man "Polling" und ist eine übliche Technik, um mit minimalem 
Softwareaufwand eine funktionierende Umgebung bereitzustellen.

Deine Auslassung zur Normalverteilung (im Sinne von "du bist ein 
Idiot"), zeigt, dass du relativ wenig Grundlagenwissen hast. Hättest mal 
meine Vorlesung besuchen sollen. :-)

von Heinz M. (subi)


Lesenswert?

Ist ganz einfach:
IDE -> Desktop
SCSI -> Server

SATA -> Nachfolger von IDE -> Desktop
SAS -> Nachfolger von SCSI -> Server
SAS vs. SATA ist 1:1 wie SCSI vs. IDE. Sprich das eine ist die High End 
Schnittstelle für Server und das andere billig für den Desktop. Einziger 
Unterschied: SATA Geräte lassen sich an SAS Controllern betreiben.

eSATA -> SATA für externe Festplatten. Im Grunde nur anderer Stecker. 
Gibt spezielle eSATA Ports die noch irgendwas machen, damit Hotplug 
besser läuft und längere Kabellängen möglich sind. In der Praxis 
vernachlässigbar.
eSATAp (auch eSATA+Power oder eSATA+USB) -> USB und eSATA in einem 
Kombiport, damit auch Strom für 2,5" Festplatten mit übertragen wird.
eSATApd -> zusätzlich 12 V damit auch 3,5" HDDs versorgt werden.

SATAe -> SATA und PCIe in einem Stecker umschaltbar um die höhere 
Geschwindigkeit von PCIe nutzen zu können

mSATA -> SATA im Ministeckkartenformat
mPCIe -> PCIe im Ministeckkartenformat und Nachfolger von mini PCI

M.2 -> Nachfolger von mPCIe und mSATA

NVMe -> PCIe Protokoll wird zur Übertragung genutzt

Und viele weitere Steckverbinder und Schnittstellen im Serverbereich.

Siehst du, ist doch gaaanz einfach. Diesen Dschungel haben wir der 
extrem schnellen Entwicklung zu verdanken. Weiteres musst du selbst 
googlen.

Wegen der Frage was woran läuft ist die Anwort wie immer: Stecker muss 
passen, Pinbelegung muss passen, Protokoll muss passen. Und Protokolle 
gibt es aktuell nur USB, SATA und PCIe im Desktopbereich für 
Massenspeicher. Den Rest kann man passend machen.

von Joachim B. (jar)


Lesenswert?

Mutluit M. schrieb:
> Einen wichtigen Aspekt vergessen die Nostalgiker: mit jeder neuen
> Chip-Generation sinkt auch der Stromverbrauch.

und verlangt ein neues OS und das wieder neue Treiber die es nicht für 
alte HW gibt.

Man kommt heute mit neuer Hardware aber nicht mit 640KB aus, man kann 
keine PS/2 Maus und Tastatur mehr anstecken, also rüstet man weiter auf, 
neues RAM, neue Tastatur, neue Maus, neuen Scanner, neuen Drucker, ja 
das spart!

Mit der CGA Monitor geht ja auch nicht mehr und die ISA IEEE488 Karte 
findet auch kein Steckplatz mehr, obwohl eigentlich noch in Ordnung.

Das spart noch viel mehr......

von Mutluit M. (mutluit)


Lesenswert?

Heinz M. schrieb:
> Siehst du, ist doch gaaanz einfach.

Na, da habe ich schon meine Zweifel dran... :-)

> Diesen Dschungel haben wir der extrem schnellen Entwicklung zu verdanken.

Einen grossen Lob und Dank an dich; diese Zusammenfassung/Übersicht ist 
mMn sehr hilfreich in dem Dschungel.

> Weiteres musst du selbst googlen.

Ja, thx. Der Rest ist einfach für mich: da ich primär an SATA 
interessiert bin, kann ich die anderen jetzt getrost und wissentlich 
abhacken, weil für mein Projekt doch nicht relevant. Aber das konnte ich 
bis zu deiner genialen Übersicht nicht wissen. Hab wider viel dazu 
gelernt. Nochmals Danke!

von Mutluit M. (mutluit)


Lesenswert?

Joachim B. schrieb:
> Mutluit M. schrieb:
>> Einen wichtigen Aspekt vergessen die Nostalgiker: mit jeder neuen
>> Chip-Generation sinkt auch der Stromverbrauch.
>
> und verlangt ein neues OS und das wieder neue Treiber die es nicht für
> alte HW gibt.
>
> Man kommt heute mit neuer Hardware aber nicht mit 640KB aus, man kann
> keine PS/2 Maus und Tastatur mehr anstecken, also rüstet man weiter auf,
> neues RAM, neue Tastatur, neue Maus, neuen Scanner, neuen Drucker, ja
> das spart!
>
> Mit der CGA Monitor geht ja auch nicht mehr und die ISA IEEE488 Karte
> findet auch kein Steckplatz mehr, obwohl eigentlich noch in Ordnung.
>
> Das spart noch viel mehr......

Also, wenn du eine Energiebilanz aufstellst, bin ich mir sicher, 
rentieren sich die neuen energie-sparsamen Varianten bestimmt 
irgendwann, nach x Jahren...

Ah Leute, macht es doch wie die Firmen: einfach nach x Jahren 
abschreiben, am besten dann bei ebay verhökern so dass man dann auch 
etwas zurückbekommt und das beruhigende Gefühl dass man einem armen 
Schlucker (z.B. Student/Schüler oder Hartz4) damit helfen konnte, weil 
sein Budget für Neuware nicht ausreicht...

Modern Times eben :-)

: Bearbeitet durch User
von Mutluit M. (mutluit)


Lesenswert?

S. R. schrieb:
> Mutluit M. schrieb:
>> Sieht man leider sogar heute noch wenn man ins BIOS reingeht:
>> 100% CPU-Auslastung bei einigen BIOSsen!
>
> Das nennt man "Polling" und ist eine übliche Technik, um mit minimalem
> Softwareaufwand eine funktionierende Umgebung bereitzustellen.

Hmm. das kann man auch besser machen.
Die CPU so zu quälen sollte wie Tierquälerei bestraft werden! :-)

> Deine Auslassung zur Normalverteilung (im Sinne von "du bist ein
> Idiot"), zeigt, dass du relativ wenig Grundlagenwissen hast. Hättest mal
> meine Vorlesung besuchen sollen. :-)

Was hat denn da deiner Meinung nach nicht gestimmt?
(Ok, statt "einseitige Normalverteilung" hätte ich wohl besser 
Kumulative Normalverteilungsfunktion (CDF) schreiben sollen, meinst du 
das vlt.?)
Bist du bzw. warst du vlt. ein Mathelehrer/Ausbilder/Prof mit 
Statistik/Stochastik/Wahrscheinlichkeitsrechnung? Cool! Ich hab schon 
immer Respekt vor Mathelehrern gehabt. Bestes Fach das es gibt bzw. gab 
in meiner Schul-/Ausbildungs-/Studienzeit vor sehr sehr Langem... :-)

: Bearbeitet durch User
von S. R. (svenska)


Lesenswert?

Mutluit M. schrieb:
> Was hat denn da deiner Meinung nach nicht gestimmt?

Das Thema.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.