Sie sind nicht angemeldet.

Lieber Besucher, herzlich willkommen bei: . Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

1

Sonntag, 14. Dezember 2008, 14:23

Über Prozessoren und Schnittstellen

Schnittstellen werden entwickelt und der Computer-User erfreut sich immer mehr Abwärtskompatibilität zu bestehender Technik.
Neue Prozessoren stellen immer neue Geschwindigkeitsrekorde auf und zu Weihnachten sind die Ich-bin-doch-nicht-blöd-Märkte voller denn je. :umfall:

Ein paar dieser neuen Entwicklungen oder besser gesagt das, was uns in den nächsten Jahren erwarten wird, möchte ich im Folgenden gerne beleuchten. :yes:

Gruß,
Roman
Gruß, Roman

2

Sonntag, 14. Dezember 2008, 14:29

USB 3.0 wird die bewährte High-Speed USB Schnittstelle ablösen

Zitat


So funktioniert USB 3.0 - nicht alles bleibt kompatibel
Mehr Leitungen und neue Stecker bringen bis zu 300 MByte/s
Die Spezifikation 1.0 für USB 3.0 liegt nach jahrelanger Entwicklung auf dem Tisch - und bringt einige Überraschungen. Optische Kabel, noch vor einem Jahr geplant, sind out, dafür gibt es neue Stecker. Die verzehnfachte Geschwindigkeit erkauft sich der neue Standard über eine leicht eingeschränkte Kompatibilität.




Quelle: golem.de

Weiter gehts auf www.golem.deund auf www.reghardware.co.uk.
Gruß, Roman

3

Sonntag, 14. Dezember 2008, 14:35

AMD erklärt den neuen Fusion Prozessor

Zitat

Neben dem heute vorgestellten Fusion Gaming Tool hat AMD nun auch seine Fusion-Webseitefreigeschaltet, auf der interessierte Besucher sich das neue Konzept erläutern lassen können.

Wie bereits mehrfach auf Planet 3DNow! berichtet folgt der Fusion dem Konzept des heterogenen Multi-Core Prozessors. Während alle aktuellen x86-Prozessoren (Core 2 Quad, Phenom) homogene Multi-Core Prozessoren sind, weil sie zwar viele, aber identische Kerne in sich tragen - nämlich x86-CPU Kerne - besitzt ein heterogener Multi-Core Prozessor unterschiedliche Kerne für unterschiedliche Aufgaben.

Ein Beispiel eines bereits existierenden heterogenen Multi-Core Konzepts ist IBMs Cell-Prozessor, wie er etwa in der PS3 zum Einsatz kommt. Dieser Prozessor trägt einen "normalen" Power-PC Kern für I/O, Verwaltung und zwecks Kompatibilität mit der Power-PC Software-Welt und zusätzlich 7 oder 8 SPEs, spezielle auf hohen Durchsatz optimierte Kerne, auf welche die mathematischen Funktionen ausgelagert werden können. Im Grunde ähnelt das Konzept dem des klassischen x87 Co-Prozessors aus der Zeit, als PC-Prozessoren noch keine mathematische Fließkomma-Einheit enthielten - allerdings auf einem höheren Niveau. Einen ähnlichen Ansatz verfolgt der IBM Super-Computer Roadrunner. Hier schieben normale AMD Opterons ihren Dienst, wobei jedem Opteron ein IBM Cell-Prozessor als Co-Prozessor angeflanscht wurde. Der Opteron für die Kompatibilität mit der x86-Welt, der Cell als Arbeitsbiene im Hintergrund.

Beim Fusion macht sich AMD nun zu Nutze, dass moderne Grafik-Prozessoren (GPUs) bereits wahre Rechenmonster sind mit dutzenden Shader-Prozessoren und mehreren hundert GFLOPS Leistung. Allerdings sind GPUs zu "dumm", um sie selbst als CPU einsetzen zu können (von der fehlenden x86-Kompatibilität abgesehen). Daher pflanzt AMD der CPU so eine GPU als Co-Prozessor ein. Konzepte wie dieses - GPGPU (General Purpose GPUs) - existieren bereits heute, indem moderne Grafikkarten wie ATIs X1800/1900/HD2000/3000 Reihe oder NVIDIAs Cuda-Grafikkarten (GeForce 8 aufwärts) über spezielle Programmierschnittstellen als Rechenhilfen genutzt werden. Populäres Beispiel: siehe Folding@Home, siehe GPUGrid.

Bei Fusion jedoch wandert diese GPU nun direkt auf die CPU. Wie das aussehen soll, zeigen die AMD Fusion Whitepaper. Gerechnet werden darf mit Fusion Ende 2009.


Eine veranschaulichende Grafik: KLICK MICH!

Quelle: www.planet3dnow.de
Gruß, Roman

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »RomanK« (14. Dezember 2008, 15:01)


AboveUsOnlySky

AboveUsOnlySky

wcf.user.posts: 557

Wohnort: Münsterland

Beruf: AWE (Anwendungsentwickler kaufmännische Softwaresysteme)

  • Nachricht senden

4

Sonntag, 14. Dezember 2008, 15:53

Fusion

Schnell und dumm ? Erinnert mich irgendwie an einen Schalker Rechtsaußen. :D

Die Frage ist, was wird damit gewonnen ? Power für rechenintensive CPU-Last oder Power für neue Grafikmodelle ? Diese Gedanke hinter dieser Fusion ist doch, der CPU Beine zu machen, oder sehe ich das von der falschen Seite ?

Für neue Modelle in Sachen Grafik sind die heutigen GPU doch auch noch zu schwach. Wenn diese GPU der CPU also Rechenarbeit abnehmen kann, muss die Entwicklung (nehmen wir mal Spiele) doch in die Richtung CPU-lastiger Games gehen.

Da bin ich gespannt, normale CPU werden doch auch heute noch durch die Taktung beschränkt. Die Anzahl der Kerne kann eine heruntergefahrene Taktung nicht ausgleichen ( siehe Quadcore Q8200 - der ist doch jedem normal getakteten Intel Core 2 Duo der Familie E8xxx im Gaming unterlegen)

Grüsse aus dem Münsterland
Rolf
AM 3 System | Intel Sockel 1156 System | Windows 7 Ultimate 64 Bit

5

Sonntag, 14. Dezember 2008, 19:10

Ob es zu dem Fusion Prozessor in den Computern noch extra Grafikkarten geben wird steht nicht fest.

Und das Prozessoren (egal welcher Art) durch ihre Taktung beschränkt sind, war immer so und wird immer so bleiben.

Das Ziel besteht wie immer darin, die Leistung zu erhöhen. Das will jeder Hardwarehersteller. AMD, Intel, nVidia, VIA, IBM, Apple, und wie sie alle heißen.

Nun wissen wir, dass CPUs komplexe Rechenvorgänge sehr gut ausführen können, während GPUs einfache Rechenaufgaben (die vom Prinzip her tausendfach hintereinander fast gleich sind) wesentlich schneller erledigen können als CPUs. Sie haben also beide ihre Stärken und Schwächen. Nur das in heutigen Computern die Grafikkarte mit der GPU nur die Bildberechnung durchführt, während ALLES ANDERE von der CPU erledigt wird. Gerade bei Sachen wie 3D-Rendering (z.B. in 3ds Max), Bildbearbeitung oder Videorendering macht quasi die CPU die ganze Arbeit. (Neueste Versionen der üblichen Programme beziehen die Grafikkarte mitlerweile auch etwas ein).

Nun liegt es doch nahe, dass man CPU- und GPU-Strukturen in einer neuen zentralen Recheneinheit (CPU = Central Processing Unit) vereinigen kann. Jenachdem welche Berechnungen durchzuführen sind macht der eine Chip dies, der andere berechnet das. Dazu ein Beispiel:

Schüler A kann gut kopfrechnen und Schüler B kann komplizierte Gleichungen sehr geschickt lösen. Der Physiklehrer nimmt ständig Schüler B dran weil der die Rechenwege sehr gut erklären kann :D. Da in der Gleichung einige Zahlen sind dauert es aber etwas länger bis Schüler B das Endergebnis raus hat. Und dann lässt der Lehrer den Schüler A das Schaubild zur Gleichung an die Tafel zeichnen. Da dieser gut kopfrechnen kann, rechnet ihr die Koordinaten der Kurve des Schaubilds fix aus. Soweit so gut, optimieren könnte man das so: Schüler B erkennt den Zusammenhang und teilt Schüler A mit das man diese Zahl durch jene zu teilen hat, und danach von XY zu subtrahieren. So kommt man schneller auf das Endergebnis. Schüler A stellt also eine GPU und B eine CPU dar.

In etwa so sollen sich in Fusion mehrere klassische CPU-Rechenkerne und (mindestens) ein GPU-Kern sich die Arbeit gegenseitig erleichtern. Gefördert wird dabei im Grunde also die CPU, wobei aber die GPU nicht mehr belastet wird als bei heutigen Systemen.

:bier:
Gruß, Roman

6

Freitag, 2. Januar 2009, 20:48

Ein Planet3DNow! Mitglied vergleicht:

Hier gehts zum Artikel: ist DDR3 wirklich so schnell/ lohnt sich Wechsel der Platform schon?

Im Moment ist leider der Server ausgelastet, vor wenigen Minuten war es noch nicht - aber das wird später schon wieder gehn... ;)
Gruß, Roman