Gigabit zu langsam - Max 10MB/s

Datei kopieren mit Speedanzeige zum Schluss:

Code:
server:~# cat /usr/bin/cpspeed
#!/bin/bash

echo "This will only work with a time longer than 1s"

START=$(date +%s)
SIZE=$(du -ms $1 | cut -f1)

#copy
cp $1 $2

END=$(date +%s)
DIFF=$(( $END - $START ))

SPEED=$(( $SIZE / $DIFF ))

#echo
echo "Copied $SIZE MB in $DIFF seconds - Speed: $SPEED MB/s"

Nich grade die beste Möglichkeit aber ich kann keine Shellskripts machen - war ich schon immer schlecht drin ^
 
Ja gut, man könnte natürlich auch einfach "time cp $1 $2" machen... :-)
Ansonsten: Eine Idee wäre es natürlich auch, die Quelldaten aus einer Ramdisk zu laden, dann hat man die miese Festplattenperformance erstmal aussen vor. Außerdem ist zu so einer Diagnostik netio der erste Ansatzpunkt, weils eben die Brutto-Datenrate mißt.
 
Ich habe das gleiche Problem und vermute das Problem hängt mit dem Verbindungsprogramm zusammen.

Ich habe 2 Linux Rechner mit Ubuntu 12.04 LTS Server und einen w7 x64 Rechner am Netz.
Alle haben 1000Mbit LAN Karten und zeigen dies auch in den Adaptereigenschaften.
Meine Kabel sind Cat5e und Cat6.
Ich betreibe die Rechner an einem TPlink 8port Gigabit Switch.
Tests habe ich auch mit direkter Kabelverbindung gemacht.
Getestet habe ich von w7 an Linux per teracopy, scp und per LAN Speed Test tool, sowie von Linux an Linux per scp.
Mehr als 12MB/s erreiche ich damit nicht.
Wenn ich allerdings die beiden Linux Rechner per NFS verbinde bekomme ich 77MB/s!
Es liegt also nicht am Switch oder an den Kabeln und auch nicht an den Festplatten sondern offenbar am Protokoll.

Hat jemand ähnliche Erfahrungen gemacht und weiß vielleicht, wie ich eine höhere Datenrate zwischen windows und Linux hinbekomme?
 
Mal grundsätzlich: Zum repräsentativen Messen von Übertragungsgeschwindigkeiten und -durchsätzen, sollte man eher darauf ausgelegte Programme wie iperf nehmen.
Bei scp könnten ja auch andere Flaschenhälse, wie eine langsamer Plattenbuffer für die Drosselung der Geschwindigkeit verantwortlich sein.

MfG

Schard
 
Grundsätzlich ist das richtig. Daher habe ich ja auch mit lanspeed test von totusoft.com getestet. Das hat aber ähnliche Übertragungsraten wie scp oder rsync angezeigt.
Der Vergleich zwischen NFS und anderen Methoden zeigt was mit meiner Hardware möglich ist und das das verwendete Übertragungsprogramm eine große Rolle spielt.
Letztlich ist für mich nicht die absolute Genauigkeit entscheidend sondern die bestmögliche Geschwindigkeit, die ich aus einem gegebenen Szenario herausholen kann. Dazu reicht ein relativer Vergleich.
 

Ähnliche Themen

rsync ist so langsam - nicht nutzbar

Samba Probleme mit Gigabit Netzwerk?

LVM IDE langsam...

Squid nur zum maskieren der eigenen IP, nicht für Webserver auf port 80

Zurück
Oben