provokativ - 49
Halbprofi
(offline)
Dabei seit 04.2009
343
Beiträge
|
|
Geschrieben am: 25.12.2010 um 23:23 Uhr
|
|
jep, eine sehr coole option ist das.
hmmm, zwar schon da, aber irgendwie immer noch zukunftsmusik, (bis es überall so gängig ist) aber das ist doch was, das ist in zehn jahren standard in jedem haushalt und schön ausgereift.. :)
|
|
Hsohnlol
Experte
(offline)
Dabei seit 09.2010
1822
Beiträge
|
|
Geschrieben am: 25.12.2010 um 23:29 Uhr
|
|
was wurde aus deim hochlad?
ich hab grad etwas weniger als 3 stunden gebraucht fuer 965.92MB
|
|
provokativ - 49
Halbprofi
(offline)
Dabei seit 04.2009
343
Beiträge
|
|
Geschrieben am: 25.12.2010 um 23:36 Uhr
|
|
Zitat von Hsohnlol: was wurde aus deim hochlad?
ich hab grad etwas weniger als 3 stunden gebraucht fuer 965.92MB
ich habs noch nicht gemacht weil ich momentan nicht an meinem pc bin,
aber aufgeschoben ist nicht aufgehoben. ;)
hmm, das hängt schon auch mit der pc stärke zusammen wie schnell etwas oben ist, stimmt? sprich langsamer pc, langsamer up, oder ist das nur leitungsabhängig?
|
|
Protagonist - 30
Champion
(offline)
Dabei seit 05.2010
2451
Beiträge
|
|
Geschrieben am: 25.12.2010 um 23:41 Uhr
|
|
Zitat von provokativ: Zitat von Hsohnlol: was wurde aus deim hochlad?
ich hab grad etwas weniger als 3 stunden gebraucht fuer 965.92MB
ich habs noch nicht gemacht weil ich momentan nicht an meinem pc bin,
aber aufgeschoben ist nicht aufgehoben. ;)
hmm, das hängt schon auch mit der pc stärke zusammen wie schnell etwas oben ist, stimmt? sprich langsamer pc, langsamer up, oder ist das nur leitungsabhängig?
Das hängt nicht von der Leistung des PCs ab, sondern hauptsächlich von der Leitung und dem Netzwerkadapter.
|
|
Hsohnlol
Experte
(offline)
Dabei seit 09.2010
1822
Beiträge
|
|
Geschrieben am: 26.12.2010 um 00:07 Uhr
|
|
mein rechner ist eher praehistorisch moechte nichts weiter zu sagen nicht das er einfach ausgeht ; )
ich bin nicht nur bei alice sondern muss die leitung noch mit nem nachbar teilen also 2 verschiedene anbieter auf einer leitung
schlechtere karten kann man nicht haben ich schaetze bei dir wird es nicht ganz so lange dauern
|
|
Markus2 - 32
Profi
(offline)
Dabei seit 11.2006
924
Beiträge
|
|
Geschrieben am: 26.12.2010 um 00:32 Uhr
|
|
Zitat von JulmaJumala: Hab sowas schon mit netcat gemacht. Ist halt Konsole, also ohne GUI, und ich habs nur im W-Lan intern benutzt. Sollte meines Wissens aber auch im Internet gehen.
Ich würde auch sagen:
bzip2 filename (falls das was bringt)
scp -p filename.bz2 user@server
Das einzige Problem dabei ist, dass das Kopierziel ein öffentlich erreichbarer SSH-Server sein muss.
Sonst eventuell auch möglich (ich kenne die genauen Umstände nicht) wäre es bei der Dateigröße tatsächlich einen Datenträger per Post zu verschicken oder sonstwie persönlich zu überbringen.
Never attribute to malice what can be adequately explained by stupidity.
|
|
Markus2 - 32
Profi
(offline)
Dabei seit 11.2006
924
Beiträge
|
|
Geschrieben am: 26.12.2010 um 00:37 Uhr
|
|
Zitat von Protagonist:
Das hängt nicht von der Leistung des PCs ab, sondern hauptsächlich von der Leitung und dem Netzwerkadapter.
Es hängt marginal von der Leistung des PCs ab.
Das merke ich derzeit. Ich möchte meinen Prähistorischen Fileserver (einige 100MHz Taktfrequenz)
ersetzen und die Übertragung der Daten dauert Ewigkeiten, wobei die Geschwindigkeit von der CPU begrenzt wird.
Außerdem merkt man es, wenn man eine nur halbwegs aktuelle CPU hat, und über eine Gigabit-Leitung übertragt. Da begrenzt dann auch die Rechenleistung die Übertragungsgeschwindigkeit.
Never attribute to malice what can be adequately explained by stupidity.
|
|
Klischeepunk - 41
Champion
(offline)
Dabei seit 01.2005
8907
Beiträge
|
Geschrieben am: 26.12.2010 um 02:22 Uhr
Zuletzt editiert am: 26.12.2010 um 02:22 Uhr
|
|
Zitat von provokativ:
jep, eine sehr coole option ist das.
hmmm, zwar schon da, aber irgendwie immer noch zukunftsmusik, (bis es überall so gängig ist) aber das ist doch was, das ist in zehn jahren standard in jedem haushalt und schön ausgereift.. :) Im Gegenteil, vergangenheitsmusik. Ausgereift ist das alles schon lang. Das Terminalprinzip ist ein alter hut und damit auch die Frage nach den möglichkeiten zur Fernsteuerung. Es wurde zwischenzeitlich nur durch immer stärkere Einzelne rechner ersetzt und so mehr oder weniger überflüssig. Der Trend wurde dann wieder gekippt und nimmt jetzt im Sinne von Clouds wieder zu. Erstaunlich wenn man bedenkt, das Clouds zwar ne schöne Sache sind, aber einfach nicht für alles zu gebrauchen, genauso wie Terminalsysteme oder jegliches andere Prinzip, aber vermutlich entscheiden da mal wieder BWLer was grad der Trend ist und das man das ganz dringend haben muss.
Dieser Post wurde 2 mal ROT-13 verschlüsselt.
|
|
Klischeepunk - 41
Champion
(offline)
Dabei seit 01.2005
8907
Beiträge
|
|
Geschrieben am: 26.12.2010 um 02:24 Uhr
|
|
Zitat von Markus2: Zitat von Protagonist:
Das hängt nicht von der Leistung des PCs ab, sondern hauptsächlich von der Leitung und dem Netzwerkadapter.
Es hängt marginal von der Leistung des PCs ab.
Das merke ich derzeit. Ich möchte meinen Prähistorischen Fileserver (einige 100MHz Taktfrequenz)
ersetzen und die Übertragung der Daten dauert Ewigkeiten, wobei die Geschwindigkeit von der CPU begrenzt wird.
Außerdem merkt man es, wenn man eine nur halbwegs aktuelle CPU hat, und über eine Gigabit-Leitung übertragt. Da begrenzt dann auch die Rechenleistung die Übertragungsgeschwindigkeit.
CPU und RAM haben zwar bei servern durchaus mitzureden - auch bei fileservern, aber wenn deine CPU bzw. der RAM tatsächlich nen riegel vorschieben (auch bei nem GBit netz) dann würd ich mir eher gedanken machen, was du dabei verbockt hast, normal ist das nämlich keineswegs.
Dieser Post wurde 2 mal ROT-13 verschlüsselt.
|
|
Der666Diablo
Champion
(offline)
Dabei seit 04.2006
23736
Beiträge
|
|
Geschrieben am: 26.12.2010 um 02:27 Uhr
|
|
Zitat von Klischeepunk: Im Gegenteil, vergangenheitsmusik. Ausgereift ist das alles schon lang. Das Terminalprinzip ist ein alter hut und damit auch die Frage nach den möglichkeiten zur Fernsteuerung. Es wurde zwischenzeitlich nur durch immer stärkere Einzelne rechner ersetzt und so mehr oder weniger überflüssig. Der Trend wurde dann wieder gekippt und nimmt jetzt im Sinne von Clouds wieder zu. Erstaunlich wenn man bedenkt, das Clouds zwar ne schöne Sache sind, aber einfach nicht für alles zu gebrauchen, genauso wie Terminalsysteme oder jegliches andere Prinzip, aber vermutlich entscheiden da mal wieder BWLer was grad der Trend ist und das man das ganz dringend haben muss.
sieht man ja, erst warens groß rechner mit clients, dann warens viele einzelne rechner (jeder dienst eine hw) und jetzt wandelt sich das wieder zu virt. umgebungen...(viele server auf einer hw)
Bei Geld, Sex und Kunst gibt es keinen abnehmenden Grenznutzen. http://shortlinks.de/oee9
|
|
Der666Diablo
Champion
(offline)
Dabei seit 04.2006
23736
Beiträge
|
|
Geschrieben am: 26.12.2010 um 02:29 Uhr
|
|
Zitat von Klischeepunk: CPU und RAM haben zwar bei servern durchaus mitzureden - auch bei fileservern, aber wenn deine CPU bzw. der RAM tatsächlich nen riegel vorschieben (auch bei nem GBit netz) dann würd ich mir eher gedanken machen, was du dabei verbockt hast, normal ist das nämlich keineswegs.
mhh...wenn man ne onboard NIC hat, dann ist das gut möglich, hatte das problem aber bisher nur bei assligen AMD kompatiblen chipsätzen der k6/7 reihe, daher: cpu/ram werden für billigste datenverschiebung + sata connectivitätssteuerung missbraucht.
Bei Geld, Sex und Kunst gibt es keinen abnehmenden Grenznutzen. http://shortlinks.de/oee9
|
|
Markus2 - 32
Profi
(offline)
Dabei seit 11.2006
924
Beiträge
|
Geschrieben am: 26.12.2010 um 04:04 Uhr
Zuletzt editiert am: 26.12.2010 um 04:12 Uhr
|
|
Zitat von Klischeepunk: Zitat von Markus2: Zitat von Protagonist:
Das hängt nicht von der Leistung des PCs ab, sondern hauptsächlich von der Leitung und dem Netzwerkadapter.
Es hängt marginal von der Leistung des PCs ab.
Das merke ich derzeit. Ich möchte meinen Prähistorischen Fileserver (einige 100MHz Taktfrequenz)
ersetzen und die Übertragung der Daten dauert Ewigkeiten, wobei die Geschwindigkeit von der CPU begrenzt wird.
Außerdem merkt man es, wenn man eine nur halbwegs aktuelle CPU hat, und über eine Gigabit-Leitung übertragt. Da begrenzt dann auch die Rechenleistung die Übertragungsgeschwindigkeit.
CPU und RAM haben zwar bei servern durchaus mitzureden - auch bei fileservern, aber wenn deine CPU bzw. der RAM tatsächlich nen riegel vorschieben (auch bei nem GBit netz) dann würd ich mir eher gedanken machen, was du dabei verbockt hast, normal ist das nämlich keineswegs.
Naja, im einen Fall war die CPU ja wirklich nicht mehr auf der Höhe der Zeit. Da habe ich selbst das 10Mbit-Netzwerk nicht ausgelastet bekommen.
Im anderen beschriebenen Fall, lag das Problem wohl eher an meiner Übertragungsmethode.
Ein scp verbraucht relativ viel Rechenleistung. Und der verwendete Rechner besteht aus einem ziemlich billigen Mainboard (das hier) das eher auf Strom sparen als auf Leistung ausgelegt ist.
Mit einem einfachen "cat < /dev/zero | nc rechnername portnummer" habe ich tatsächlich Transferraten von etwa 900Mbit hinbekommen.
Allerdings war auch da die CPU auf 100%.
edit: Falls das nicht Normal ist, würde mich durchaus auch interessieren, was ich "dabei verbockt [habe]" wie du es ausdrückst. Ich kann mir nämlich auf die Schnelle nicht viel vorstellen, was ich falsch gemacht haben sollte. Die Hardware besteht aus oben verlinktem Mainboard und einer PCIe-Netzwerkkarte. Die Verwendete Software war eine KNOPPIX-CD (Ich weiß leider nicht mehr genau welche Version: 6.x soweit ich mich erinnern kann)
Never attribute to malice what can be adequately explained by stupidity.
|
|
Der666Diablo
Champion
(offline)
Dabei seit 04.2006
23736
Beiträge
|
|
Geschrieben am: 26.12.2010 um 14:53 Uhr
|
|
Zitat von Markus2: Naja, im einen Fall war die CPU ja wirklich nicht mehr auf der Höhe der Zeit. Da habe ich selbst das 10Mbit-Netzwerk nicht ausgelastet bekommen.
Im anderen beschriebenen Fall, lag das Problem wohl eher an meiner Übertragungsmethode.
Ein scp verbraucht relativ viel Rechenleistung. Und der verwendete Rechner besteht aus einem ziemlich billigen Mainboard ( das hier) das eher auf Strom sparen als auf Leistung ausgelegt ist.
Mit einem einfachen "cat < /dev/zero | nc rechnername portnummer" habe ich tatsächlich Transferraten von etwa 900Mbit hinbekommen.
Allerdings war auch da die CPU auf 100%.
edit: Falls das nicht Normal ist, würde mich durchaus auch interessieren, was ich "dabei verbockt [habe]" wie du es ausdrückst. Ich kann mir nämlich auf die Schnelle nicht viel vorstellen, was ich falsch gemacht haben sollte. Die Hardware besteht aus oben verlinktem Mainboard und einer PCIe-Netzwerkkarte. Die Verwendete Software war eine KNOPPIX-CD (Ich weiß leider nicht mehr genau welche Version: 6.x soweit ich mich erinnern kann)
10mbit vs 900mbit reale übertragung?
du weisst schon, dass ein 1GBE max(!) 125Mbyte übertragungsrate aufweisen könnte und davon noch der Overhead + evtl dinge wie Güte der Switches/Kabel/Länge subtrahiert werden müssen?
Ich bekomm wenn ich größere Dateien Transferier auch max 50 hin (PIV, TB HD neuerers bauart, middle cost switch zu Ci7 Notebook via GBE) und das sind schon gute Werte
Bei Geld, Sex und Kunst gibt es keinen abnehmenden Grenznutzen. http://shortlinks.de/oee9
|
|
Der666Diablo
Champion
(offline)
Dabei seit 04.2006
23736
Beiträge
|
|
Geschrieben am: 26.12.2010 um 14:55 Uhr
|
|
Zitat von Markus2: edit: Falls das nicht Normal ist, würde mich durchaus auch interessieren, was ich "dabei verbockt [habe]" wie du es ausdrückst. Ich kann mir nämlich auf die Schnelle nicht viel vorstellen, was ich falsch gemacht haben sollte. Die Hardware besteht aus oben verlinktem Mainboard und einer PCIe-Netzwerkkarte. Die Verwendete Software war eine KNOPPIX-CD (Ich weiß leider nicht mehr genau welche Version: 6.x soweit ich mich erinnern kann)
du nutzt billig(ste) komponenten ;) das hast du verbockt - bei der PCI Karte geht erstmal alles über die Computinginstanzen des Mobo, welche es dann logischerweise ausbremst.
Bei Geld, Sex und Kunst gibt es keinen abnehmenden Grenznutzen. http://shortlinks.de/oee9
|
|
Markus2 - 32
Profi
(offline)
Dabei seit 11.2006
924
Beiträge
|
|
Geschrieben am: 26.12.2010 um 15:20 Uhr
|
|
Zitat von Der666Diablo:
10mbit vs 900mbit reale übertragung?
Achtung, ich rede von verschiedenen Versuchen.
Im einen Fall möchte ich die Daten von einem Uralten Rechner runterkriegen.
Und das läuft per rsync über SSH. So dass schlichtweg die CPU nicht mit ver-/entschlüsseln nachkommt,
und auch das (dort verwendete) 10Mbit Netzwerk nicht ausgelastet wird.
Im anderen Fall habe ich die oben beschriebenen billigen Komponeneten die eigentlich eher Strom sparen als Rechenleistung bringen sollen, da der fragliche Rechner bei uns 24/7 laufen soll.
Zitat von Der666Diablo:
du weisst schon, dass ein 1GBE max(!) 125Mbyte übertragungsrate aufweisen könnte und davon noch der Overhead + evtl dinge wie Güte der Switches/Kabel/Länge subtrahiert werden müssen?
den Unterschied zwischen Mbit/s und Mbyte/s kenne ich durchaus. Ich habe immer von Mbit/s gesprochen.
Und die 900 habe ich wie gesagt mit "cat < /dev/zero | nc rechnername portnr" erreicht.
Also kein Festplattenzugriff und nichts nur reine Übertragung. Und dabei wurde mir angezeigt, dass ich etwa 900Mbit/s hatte.
Allerdings wird mir in top auch angezeigt, dass die CPU 100% Last von nc hat
Zitat von Der666Diablo:
Ich bekomm wenn ich größere Dateien Transferier auch max 50 hin (PIV, TB HD neuerers bauart, middle cost switch zu Ci7 Notebook via GBE) und das sind schon gute Werte
Also meine Hardware ist: Oben verlinktes Mainboard, mit der Netzwerkkarte. Der verwendete Switch ist der hier. Auf der Gegenseite habe ich das Mainboard mit onboard Gigabit-Karte verwendet.
Die Kabel sind zugegebenermaßen verlegt worden, als 100Mbit aktuell war. dürfte daher Cat5 oder sowas rum sein.
Aber eigentlich vermute ich eher, dass es an der CPU hängt, da die ja auf 100% ist.
Never attribute to malice what can be adequately explained by stupidity.
|
|