Firma NVIDIA wydała drugą generację swojego w pełni programowalnego koprocesora graficznego (GPU, ang. Graphics Processing Unit), który stosowany jest jako podstawa dla nowej platformy Tesla w celu uzyskania dwukrotnie lepszej wydajności przy zastosowaniach naukowych oraz wymagających intensywnej grafiki, łącznie z symulacjami i 3-D CAD.
Nowy procesor Tesla T10P łączy 240 rdzeni strumieniowych oraz 4GB pamięci, umożliwiając uzyskanie 1 teraflopu mocy obliczeniowej dla potrzeb CAE/CAD, obrazowania medycznego, analizy danych sejsmicznych w poszukiwaniach ropy i gazu oraz dla innych zastosowań HPC (ang. High-performance computing), w których przetwarzane są ogromne zestawy danych. Ponadto Tesla T10P jest również drugiej generacji platformą, która dla swoich GPU wykorzystuje standardowe środowisko programowania CUDA C ułatwiające pełne programowanie i dostosowanie do potrzeb szeregu rozmaitych zastosowań naukowych.
Sumit Gupta, dyrektor produktowy firmy NVIDIA w jednostce Tesla przekonuje, że nastawienie na GPU, takie jak np. nowa Tesla T10P, jest znacznie tańszym sposobem na zwiększanie wydajności przetwarzania danych w porównaniu do tradycyjnego sposobu dodawania dodatkowych serwerów do centrum danych. Takie obliczenia dokonywane były na platformie stacji roboczej, z której przenoszono je do centrum danych, ponieważ zastosowania stawały się coraz bardziej skomplikowane i stacje robocze nie dawały już sobie z nimi rady – twierdzi Gupta.Dla naukowców i inżynierów oznaczało to w praktyce, że jeśli nie pracowali dla organizacji mogącej sobie pozwolić na centrum danych, nie mieli dostępu do takich cennych danych. GPU takie jak Tesla T10P umożliwiają dokonywanie obliczeń bezpośrednio na stacjach roboczych.
Tesla C1060 oferuje dwukrotnie lepszą wydajność dla zastosowań CAE/CAD.
Według Gupta, zwiększanie mocy maksymalnej przy pomocy GPU zamiast tradycyjnych wielordzeniowych GPU ma jeszcze inne zalety. GPU są szybsze i mają wspólną pamięć, co umożliwia szybsze wzajemne połączenia w ramach układu i daje lepszą wydajność niż przy skalowaniu na kilku serwerach.