News Nvidia „Erista“ bringt Maxwell auf Tegra

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.736
Im Rahmen der Hausmesse GTC hat Nvidia auch einen Blick auf die Zukunft der Tegra-Sparte gegeben. Demnach folgt auf die aktuelle beziehungsweise in diesem Jahr erscheinende Variante Tegra K1 im kommenden Jahr der Neuling mit dem Codenamen „Erista“, der auf der „Maxwell“-Architektur basieren wird.

Zur News: Nvidia „Erista“ bringt Maxwell auf Tegra
 
Artikel-Update: In Deutschland wird das Entwicklerkit „Jetson TK1“ ab Mai beim Elektronikfachhändler Conrad verfügbar sein. „Sowohl professionelle Hardware- und Software-Entwickler als auch Studenten und begeisterte Hobby-Entwickler bekommen mit dem Jetson TK1 Development Kit die Möglichkeit“, vermeldet Zotac per Pressemitteilung.

Laut Zotac misst die Platine 127 mm × 127 mm × 26 mm. Neben dem SoC sind auf dem PCB 2 GB Arbeitsspeicher (64 Bit), 16 GB eMMC-Speicher, ein SD/MMC-Anschluss und ein Half-Size-mini-PCIe-Slot verbaut. Ein Micro-USB-2.0-, ein USB-3.0- und ein HDMI-Port sowie eine serielle Schnittstelle (RS232) und ein Gigabit-LAN-Anschluss stellen die Verbindung zur Außenwelt her. Auf dem Bord selber findet sich eine SATA-Schnittstelle. Einen Preis hat Zotac für Deutschland noch nicht in Aussicht gestellt. Bei 192 US-Dollar UVP in den USA ist mit 200 Euro zu rechnen.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
@Booby

Wahrscheinlicher ist das nVidia denn $ Preis 1 zu 1 in € umrechnet, wie immer!
 
Ist das oben links JTAG/SWD?
 
Sollte auf jeden Fall ein 20-Pin JTAG sein

edit: Wenn du das Bild vergrößerst, erkennst du den Ansatz von "J" und "TAG" dahinter...
 
Dwyane schrieb:
Wahrscheinlicher ist das nVidia denn $ Preis 1 zu 1 in € umrechnet, wie immer!
Der Hersteller ist nicht der (alleinige) Einzelhändler
UVP ist nicht Marktpreis
Anderes Lohnniveau
Anderes Preisniveau
US Preise exkl. MwSt. angegeben
€ Preise inkl. MwSt. angegeben
Evtl. andere Einfuhrzölle/-Gebühren
 
Booby schrieb:
Für 'nen Hunni würde ich die Platine kaufen...

Booby schrieb:
Das ist das Problem, 200€ ist einfach zu viel!

Wenn ich sowas schon wieder lese. Das ist ein Entwicklerkit und nicht für den Endkundenmarkt gedacht. Das sowas immer ignoriert oder überlesen wird! Aus meiner Berufserfahrung kann ich sagen, dass dieser Preis sogar auf den ersten Blick günstig erscheint und keinesfalls als zu teuer, vorausgesetzt man erhält auch den üblichen Support.
 
@TrebuTurbo
So ein Blödsinn!
"Entwicklerkit" ist ein anderer Name für ein Board, ein Raspberry Pi ist auch ein "Entwicklerkit". Ein solches Board ist per se nicht für den Endkunden gedacht!
Intel's Galileo Development Board kostet auch nur $60 mit Support!
 
Cr4y schrieb:
Der Hersteller ist nicht der (alleinige) Einzelhändler
UVP ist nicht Marktpreis
Anderes Lohnniveau
Anderes Preisniveau
US Preise exkl. MwSt. angegeben
€ Preise inkl. MwSt. angegeben
Evtl. andere Einfuhrzölle/-Gebühren

dann vergleich doch mal die $/€-preise für ähnliche produkte und du wirst feststellen dass trotz all der argumente irgendwas um die 200 euro rauskommen werden :rolleyes:
 
@Booby
Genau und die von dir genannten Boards spielen auch in den selben Leistungsregionen. RasPi ist ARM11 mit 512MB RAM und sonst nix. Geht man etwas höher bekommt man für 70-100€ Boards mit z.B. Allwinner A20. Dann hat man schon mal Dualcore Cortex A8. PandaboardES mit einem Dualcore Cortex A9 kostet auch um die 175€.
Jetzt kommt NVIDIA und verlangt für einen Quadcore Cortex A15 samt CUDA-fähiger GPU, 2GB RAM, 16GB eMMC und USB3.0 utopische ~200€.
 
Schon klar, nur ist dieses Board weder komplexer als ein Cubieboard noch hat es mehr Schnittstellen. Der große Unterschied ist nur das SoC und dass dieses mehr als $100 Aufpreis kostet ist für mich einfach zu viel...

Übrigens du willst mir doch nicht erzählen, dass USB 3.0 irgendeinen reellen Nutzen hat?
 
Zuletzt bearbeitet:
Das ist ein Entwicklerkit und nicht für den Endkundenmarkt gedacht. Das sowas immer ignoriert oder überlesen wird!

Ja... nein :D
Das Ding hier ist grundsätzlich wohl die interessanteste ARM Platine auf dem Markt. Mit interessant meine ich exklusive Preis. Das ist das, was sich viele mit Sicherheit sehr viel lieber als einen Raspberry kaufen würden. Schlicht, weil man die Geräte außer in der groben Funktionsweise nicht vergleichen kann.
Bei dem K1 Kit muss man sich am Ende nicht mal Mühe mit der Software geben, was bestimmte HTPC oder NAS Anwendungen angeht. Beim Raspberry muss es ja schon zwangsläufig bis ins Letzte optimiert sein, weil die Leistung so 1996 ist :)
Das Ding hier wird sich öfter als gedacht an Privatleute verkaufen. Viele Enthusiasten spielen mit dem Gedanken einen Android/Linux Kleinst-PC auf ARM Basis zu bauen. Nur aus Bastelfreude und Interesse. Aber oftmals möchte man sich dann nur ungern die veralteten Platinen kaufen, die so am Markt sind.
Ich könnte mir das z.B. sehr gut für meinen Bruder vorstellen. Der hat seine Modellbahnplatte bis ins letzte digitalisiert und steuert das momentan über einen steinalten Athlon (K7) PC mit X850GPU. Hässlicher riesiger Klotz, dem der Begriff "Stromsparmodus" unbekannt ist. Das wäre elegant und Geld spielt eine eher untergeordnete Rolle.

BTW:
nVidia schwingt hier aber mal wieder die Marketingkeule. Die drehen irgendwie langsam durch. Vergleichen eine Dual Chip GPU mit 17.000 "Kernen" mit einem riesigen Server mit 16.000 Kernen ohne Anführungszeichen, behaupten man hätte einen Supercomputer für die Hosentasche (mit Lüfter :lol: ) und will das Ding als 192-Kerner vermarkten :freak:
Was auch immer die rauchen/nehmen - ich will es auch haben!
 
Margot Honecker schrieb:
dann vergleich doch mal die $/€-preise für ähnliche produkte und du wirst feststellen dass trotz all der argumente irgendwas um die 200 euro rauskommen werden :rolleyes:

hast du überhaupt gelesen was Cr4y geschrieben hat? Die Dollarpreise sind ohne Steuern! die kommen noch drauf und wenn man es dann umrechnet zahlen die dort auch knapp 200€..... Das sich das so hartnäckig hält verstehe ich nicht....
 
Was genau kann ich damit machen?

Ist es jetzt wie ein RaspberryPi?
 
[F]L4SH schrieb:
BTW:
nVidia schwingt hier aber mal wieder die Marketingkeule. Die drehen irgendwie langsam durch. Vergleichen eine Dual Chip GPU mit 17.000 "Kernen" mit einem riesigen Server mit 16.000 Kernen ohne Anführungszeichen, behaupten man hätte einen Supercomputer für die Hosentasche (mit Lüfter :lol: ) und will das Ding als 192-Kerner vermarkten :freak:
Was auch immer die rauchen/nehmen - ich will es auch haben!

Was macht denn einen Kern aus?
ALU + FPU + Anbindung an einen L1, genau das ist ein CUDA Core.
 
Zurück
Oben