Originally published at: Googles neuer Supercomputer mit mehr als 4000 TPUs für Künstliche Intelligenz (KI) - Cybertalk.io DE
Google hat neue Informationen zu seinem Tensor Processing Unit (TPU) v4 veröffentlicht, einem selbst entwickelten Chip, der in den Supercomputern des Unternehmens zum Einsatz kommt. Google behauptet, dass die Leistung des TPU v4 im Vergleich zur Vorgängerversion v3 um den Faktor 10 verbessert wurde und die Energieeffizienz erhöht wurde. Im Vergleich zu anderen aktuellen ML-Domain-Specific-Accelerators…
2 Likes
Es ist interessant, das Google eigene Hardware Entwickelt und Microsoft bzw. OpenAI auf Nvidia Hardware setzt. Bei Chatbots ist Microsoft auf jeden fall erfolgreicher und hat ChatGPT ja auch schon in die Bing suche integriert.
1 Like