Du bist nicht eingeloggt.

Login

Pass

Registrieren

Community
Szene & News
Locations
Impressum

Forum / Bits und Bytes

[Hilfe] Nvidia SLI-Technologie

<<< zurück   -1- -2- -3- vorwärts >>>  
Papa-Schumpf - 39
Experte (offline)

Dabei seit 09.2005
1979 Beiträge

Geschrieben am: 22.06.2011 um 08:32 Uhr

Zitat von bredator:

Zitat von Papa-Schumpf:


gibt doch auch Karten die mittlererweile 2 Dual-GPU´s haben, wären somit 8 Dual GPU´s oder eben 16 GPU-Kerne.

Das system was ich da im Kopf habe, hatte soweit ich weiß auch
4 16x PCi-Express slots und die Karten wurden der Kühlung wegen mit solchen flexiblen PCI-Express Slot Verlängerungen angeschlossen.


Jo, kann schon sein. Aber das ist weder sinnvoll, noch gebräuchlich. Da wäre der exorbitant hohe Stromverbrauch, der für den privaten Gebrauch oder gar fürs Spielen absolut nicht zu rechtfertigen ist, ebenso wie das Kühlsystem, das wohl kaum mehr unter den Schreibtisch passt. Und zu guter Letzt natürlich ein Preis, für den man einen Neuwagenkauf in Erwägung ziehen kann. ;)

Ich hatte ein Mal eine Dual-GPU-Karte. Für mein 3D-Design-Zeugs war die astrein (genauso wie meine beiden FireGL-Karten jetzt), allerdings im "normalen" Rechner nicht wirklich sinnvoll. Zwar waren besagte Berechnungen, die ich auf die GPUs ausgelagert hatte wesentlich schneller als auf der Quadcore-CPU, allerdings war das Ding ansonsten unbrauchbar. Am meisten haben mich dabei die Mikroruckler gestört, die auch heute noch ein Problem darstellen, das man nicht einfach wegargumentieren kann. Aber gut, ich glaube, wir kommen vom Thema ab. Es sind also 4 Karten, die via SLI miteinander verbunden werden können. Wie diese für sich nochmal aufgebaut sind, spielt dabei ja keine Rolle.


Ich denke solche "monster" SLI Systeme sind auch nicht für den Heimanwender gedacht.

Hmmm, was man mit 16 GPU - Kernen so alles anstellen könnte, ich denke unvorstellbar.

Für Rechtschreibfehler haftet die Tastatur, andernfalls darf der ehrliche Finder sie behalten.

ZER0-CooL - 36
Champion (offline)

Dabei seit 09.2004
4459 Beiträge

Geschrieben am: 22.06.2011 um 08:40 Uhr

Zitat von Papa-Schumpf:

...Hmmm, was man mit 16 GPU - Kernen so alles anstellen könnte, ich denke unvorstellbar.


Ich weiß nicht an was du denkst, aber ich frag mich gerade ob man damit schneller wäre als mit einer Rainbow Table bei Brute Force :totlacher:
bredator - 41
Champion (offline)

Dabei seit 03.2008
5319 Beiträge

Geschrieben am: 22.06.2011 um 09:03 Uhr

Zitat von ZER0-CooL:

Zitat von Papa-Schumpf:

...Hmmm, was man mit 16 GPU - Kernen so alles anstellen könnte, ich denke unvorstellbar.


Ich weiß nicht an was du denkst, aber ich frag mich gerade ob man damit schneller wäre als mit einer Rainbow Table bei Brute Force :totlacher:


??
Gerade dafür sind GPU-Systeme doch geeignet. Ich verstehe gerade nicht, was du mit dem Satz sagen willst.

Lache nicht über jemanden, der einen Schritt zurück macht. Er könnte Anlauf nehmen.

ZER0-CooL - 36
Champion (offline)

Dabei seit 09.2004
4459 Beiträge

Geschrieben am: 22.06.2011 um 10:42 Uhr

Zitat von bredator:


??
Gerade dafür sind GPU-Systeme doch geeignet. Ich verstehe gerade nicht, was du mit dem Satz sagen willst.


Äh okay, blöd formuliert, ich versuchs anders.
Ich frag mich welche Variante wohl schneller ist, direkt die Hashs mit den GPUs zu berechnen und zu vergleichen oder die Hashs aus einer Rainbow Table auszulesen.
bredator - 41
Champion (offline)

Dabei seit 03.2008
5319 Beiträge

Geschrieben am: 22.06.2011 um 11:52 Uhr

Zitat von ZER0-CooL:

Zitat von bredator:


??
Gerade dafür sind GPU-Systeme doch geeignet. Ich verstehe gerade nicht, was du mit dem Satz sagen willst.


Äh okay, blöd formuliert, ich versuchs anders.
Ich frag mich welche Variante wohl schneller ist, direkt die Hashs mit den GPUs zu berechnen und zu vergleichen oder die Hashs aus einer Rainbow Table auszulesen.


Bei 16 GPUs vermutlich auch weiterhin die Rainbowtable. Allerdings die Rainbowtable mit den GPUs auslesen und vergleichen, wäre interessant. Alles andere wäre eh blödsinnig.

Lache nicht über jemanden, der einen Schritt zurück macht. Er könnte Anlauf nehmen.

ZER0-CooL - 36
Champion (offline)

Dabei seit 09.2004
4459 Beiträge

Geschrieben am: 22.06.2011 um 11:53 Uhr

Zitat von bredator:

Bei 16 GPUs vermutlich auch weiterhin die Rainbowtable. Allerdings die Rainbowtable mit den GPUs auslesen und vergleichen, wäre interessant. Alles andere wäre eh blödsinnig.


Naja Rainbow Tables mit 10+TB sind halt doch etwas "lästig"
bredator - 41
Champion (offline)

Dabei seit 03.2008
5319 Beiträge

Geschrieben am: 22.06.2011 um 12:09 Uhr

Zitat von ZER0-CooL:

Zitat von bredator:

Bei 16 GPUs vermutlich auch weiterhin die Rainbowtable. Allerdings die Rainbowtable mit den GPUs auslesen und vergleichen, wäre interessant. Alles andere wäre eh blödsinnig.


Naja Rainbow Tables mit 10+TB sind halt doch etwas "lästig"


Dadurch, dass z.B. eine einzige Radeon HD 5870 auf knapp 2700 GFlop/s kommt, während ein i7-970 gerade mal mit um die 95 GFlop/s rumdümpelt, zeigt doch recht gut das Rechenpotential von GPGPU. Bruteforce ohne Rainbowtables halte ich halt für blödsinnig.

Lache nicht über jemanden, der einen Schritt zurück macht. Er könnte Anlauf nehmen.

Klischeepunk - 41
Champion (offline)

Dabei seit 01.2005
8907 Beiträge

Geschrieben am: 22.06.2011 um 12:15 Uhr

Zitat von ZER0-CooL:

Zitat von bredator:

Bei 16 GPUs vermutlich auch weiterhin die Rainbowtable. Allerdings die Rainbowtable mit den GPUs auslesen und vergleichen, wäre interessant. Alles andere wäre eh blödsinnig.


Naja Rainbow Tables mit 10+TB sind halt doch etwas "lästig"

Ich komm vielleicht nicht ganz mit aber:
Ne file mit 10+TB verwenden vs. 10+TB selbst berechnen und danach verwenden - mir erscheint logisch, was da performanter ist, oder krieg ich iwas nicht mit?

Dieser Post wurde 2 mal ROT-13 verschlüsselt.

ZER0-CooL - 36
Champion (offline)

Dabei seit 09.2004
4459 Beiträge

Geschrieben am: 22.06.2011 um 13:20 Uhr

Bei der Table liegt die Aufgabe zu so ziemlich 100% bei der CPU.

Bei der GPU-Variante mit Brute-Force, berechnet die GPU den Hash und die CPU übernimmt die vergleichsarbeit. Zumindest spart man sich so schon mal die Massen an Speicherplatz. Ich könnte mir aber trotzdem vorstellen, dass dies schneller ist.
Mystic-Car - 32
Profi (offline)

Dabei seit 02.2006
924 Beiträge

Geschrieben am: 22.06.2011 um 13:40 Uhr

Zitat von Papa-Schumpf:

Zitat von bredator:

Zitat von Papa-Schumpf:


Ich meine irgendwo nen Testrechner gesehen zu haben mit 4 SLI-Fähigen Dualcore Karten


Sind aber trotzdem "nur" 4 Karten, die eben jede für sich nochmal ein Dual-GPU-System hat.


gibt doch auch Karten die mittlererweile 2 Dual-GPU´s haben, wären somit 8 Dual GPU´s oder eben 16 GPU-Kerne.

Das system was ich da im Kopf habe, hatte soweit ich weiß auch
4 16x PCi-Express slots und die Karten wurden der Kühlung wegen mit solchen flexiblen PCI-Express Slot Verlängerungen angeschlossen.

"Nur" 4 PCIe Karten? Mir fiel da gerade das Projekt "Fastra II" ein, dort sind es immerhin 7 PCIe Slots, mit 7 Grafikkarten.

Und mehr als 4 Grafikchips sind bei SLi doch gar nicht möglich?
Die zwei GPUs einer Multi-GPU Grafikkarte sind ja auch mit SLi "verbunden".
Klischeepunk - 41
Champion (offline)

Dabei seit 01.2005
8907 Beiträge

Geschrieben am: 22.06.2011 um 13:42 Uhr

Ich komm nicht ganz mit, ich habe 2 mal exakt den gleichen Vorgang an dem sich nichts ändert, nur dass ich einmal auf bestehende Daten zurückgreife und im anderen Fall diese Datenbasis selbst erschaffen muss. richtig? falsch?

Es stellt einen Mehraufwand dar, diese Datenbasis zu schaffen, gehen wir nun davon aus, dass die Erschaffung eines Datensatzes weniger Zeit benötigt als das schlußendliche verwerten dieses Datensatzes, dann ist mein Maximaler Zeitgewinn 0 und in jedem anderen Fall Negativ. richtig? falsch?

Dieser Post wurde 2 mal ROT-13 verschlüsselt.

-TM_Benuba- - 31
Profi (offline)

Dabei seit 08.2009
949 Beiträge
Geschrieben am: 22.06.2011 um 13:44 Uhr
Zuletzt editiert am: 22.06.2011 um 13:44 Uhr

Zitat von Mystic-Car:

"Nur" 4 PCIe Karten? Mir fiel da gerade das Projekt "Fastra II" ein, dort sind es immerhin 7 PCIe Slots, mit 7 Grafikkarten.

Und mehr als 4 Grafikchips sind bei SLi doch gar nicht möglich?
Die zwei GPUs einer Multi-GPU Grafikkarte sind ja auch mit SLi "verbunden".


die grafikkarten müssten da doch gar keine luft mehr bekommen oder??
ZER0-CooL - 36
Champion (offline)

Dabei seit 09.2004
4459 Beiträge

Geschrieben am: 22.06.2011 um 14:05 Uhr

Zitat von Klischeepunk:

Ich komm nicht ganz mit, ich habe 2 mal exakt den gleichen Vorgang an dem sich nichts ändert, nur dass ich einmal auf bestehende Daten zurückgreife und im anderen Fall diese Datenbasis selbst erschaffen muss. richtig? falsch?

Es stellt einen Mehraufwand dar, diese Datenbasis zu schaffen, gehen wir nun davon aus, dass die Erschaffung eines Datensatzes weniger Zeit benötigt als das schlußendliche verwerten dieses Datensatzes, dann ist mein Maximaler Zeitgewinn 0 und in jedem anderen Fall Negativ. richtig? falsch?


Jetzt komm ich nicht mehr ganz mit :totlacher:
Ich fütter dein Konstrukt mal mit Beispielzahlen (und ja diese sind komplett aus der Luft gegriffen und haben keine Bedeutung)

ich benötige 1ms um einen Datensatz zu erstellen und sagen wir mal 5ms um einen Datensatz bei der Suche in der Tabelle zu finden.

Wenn ich nun mit der GPU einen Datensatz erstelle und den vorherigen Datensatz parallel durch die CPU den Zielhash, mit dem generierten Vergleiche und ihn nirgends speichere habe ich eine ms benötigt. Weil ich nur einen Wert hab der verglichen wird.

Wenn ich aber in Milliarden von Datensätzen nach einem bestimmten suchen muss was in meinen Augen länger dauert, in meinem Zahlen Beispiel 5ms wäre das jetzt irgendwie doch schneller, da ich nach 5ms das Ergebnis hätte :-D

Ok blöder Wert und bei 10+TB wohl viel zu niedrig angestzt, ich würde es gerne testen aber ich kenn leider keine kostenlosen Quellen für Rainbow Tables in der Größenordnung und selber hab ich nur 200 GB Speicherplatz frei :-D. Die Frage ist wie lang dauert es in einer großen Rainbow Table einen Hash zu finden, habe keine Erfahrungen dazu.


Klischeepunk - 41
Champion (offline)

Dabei seit 01.2005
8907 Beiträge

Geschrieben am: 22.06.2011 um 15:03 Uhr
Zuletzt editiert am: 22.06.2011 um 15:05 Uhr

Ah jetzt komm ich mit. nja, käm auf n Performancetest an und bedenke dabei in ner DB hast du suchbäume über die du dich orientieren kannst, in deiner Programmlogik müsstest du etwas vergleichbares abbilden .. $belibiger_hash abfeuern ist nicht die lösung, du hättest den anspruch an den hash unique zu sein, und sich nach bestimmten regeln aufzubauen (hashseitig), in ner DB kannst du hierfür die Indizierung nutzen und so optimierte Suchergebnisse erzielen.


Klar im besten fall würdest du dir "datei öffnen", "suchen" etc. sparen, und direkt "hash berechnen", "vergleichen", volltreffer. Aber die wahrscheinlichkeit ist zu niedrig.

Dieser Post wurde 2 mal ROT-13 verschlüsselt.

ZER0-CooL - 36
Champion (offline)

Dabei seit 09.2004
4459 Beiträge

Geschrieben am: 22.06.2011 um 15:10 Uhr

Zitat von Klischeepunk:

Ah jetzt komm ich mit. nja, käm auf n Performancetest an und bedenke dabei in ner DB hast du suchbäume über die du dich orientieren kannst, in deiner Programmlogik müsstest du etwas vergleichbares abbilden .. $belibiger_hash abfeuern ist nicht die lösung, du hättest den anspruch an den hash unique zu sein, und sich nach bestimmten regeln aufzubauen (hashseitig), in ner DB kannst du hierfür die Indizierung nutzen und so optimierte Suchergebnisse erzielen.


Klar im besten fall würdest du dir "datei öffnen", "suchen" etc. sparen, und direkt "hash berechnen", "vergleichen", volltreffer. Aber die wahrscheinlichkeit ist zu niedrig.


Naja ich hab jetzt mein neues Projekt gestartet, ich erstelle jetzt ne 2 TB große Rainbow Table in einer Oracle Database, mal schauen wie lang nach etwas Anpassung die Suche nach einem bestimmten Hash dauert. :)
<<< zurück
 
-1- -2- -3- vorwärts >>>
 

Forum / Bits und Bytes

(c) 1999 - 2026 team-ulm.de - all rights reserved - hosted by ibTEC Team-Ulm

- Presse - Blog - Historie - Partner - Nutzungsbedingungen - Datenschutzerklärung - Jugendschutz -