W dzisiejszym świecie GeForce 16 to temat, który staje się coraz bardziej istotny. Niezależnie od tego, czy na poziomie osobistym, zawodowym czy społecznym, GeForce 16 zdołał wzbudzić zainteresowanie wielu różnych osób i organizacji. Jego wpływ znalazł odzwierciedlenie w różnych obszarach, od technologii po rozrywkę, w tym zdrowie i edukację. W tym artykule szczegółowo zbadamy GeForce 16, analizując jego implikacje, wyzwania i możliwe rozwiązania. Dodatkowo zbadamy, jak GeForce 16 ewoluował na przestrzeni czasu i jaki wpływ wywarł na współczesne społeczeństwo.
GeForce 16 – rodzina procesorów kart graficznych (GPU) stworzona przez firmę Nvidia. Seria została oficjalnie wprowadzona wraz z pojawieniem się karty graficznej GeForce GTX 1660 Ti, czyli 22 lutego 2019 r.[1]
Seria ta oparta jest na okrojonej mikroarchitekturze Turing znanej z kart Geforce 20[2].
Karty te są produkowane w procesie technologicznym TSMC's 12 nm FinFET, obsługują PCIe 3.0 x16.
Seria Nvidia Geforce GTX 16 chociaż bazuje na tej samej architekturze Turing co , to jednak ma znacznie mniejszą wydajność w ray tracingu i uczeniu maszynowym w porównaniu z serią Geforce 20, ponieważ nie ma rdzeni RT oraz Tensor[2].
Karty GTX 16 obsługują ray tracing programowo, przy użyciu shaderów, co jest znacznie wolniejszym rozwiązaniem niż użycie sprzętowych rdzeni RT[3].
GeForce 16 podobnie jak GeForce 20 obsługuje DirectX 12, OpenGL 4.6, OpenCL 3.0 oraz Vulkan 1.2.[4]
Cechy kart Nvidia Geforce 16:
Model | Rok | Nazwa kodowa | Proces
techn. (nm) |
Liczba
(mld) |
Rozmiar (mm2) | Interfejs
magistrali |
Rdzenie
CUDA |
Jednostki
mapowania textur |
Jednostki | Rdzenie RT[9] | Rdzenie Tensor | SM | Częstotliwość taktowania | Szczytowy współczynnik wypełnienia (ang. fillrate) | Pamięć | Moc obliczeniowa GFLOPs (FMA) | TDP (waty) | ||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Podstawowa | Turbo | Pamięć
(MHz) |
Jednostki ROP
(GP/s) |
Jednostki
teksturowania (GT/s) |
Pamięć
(GB) |
Maks. pasmo
(GB/s) |
Typ DRAM | Szerokość szyny danych
(bit) |
Pojedynczej precyzji | Podwójnej
precyzji |
Połowicznej
precyzji | ||||||||||||||
GeForce GTX 1630[10] | 28 czerwca 2022 | TU117-150-KA-A1 | 12 | 4,7 | 200 | PCIe 3.0 x8 | 512 | 32 | 16 | brak | brak | 8 | 1740 | 1785 | 12000 | 16 | 57,12 | 4 | 96 | GDDR6 | 64 | 1828 | 57,12 | 3656 | 75 |
GeForce GTX 1650[7] | 23 kwietnia 2019 | TU117-300-A1 | PCIe 3.0 x16 | 896 | 56 | 32 | brak | brak | 14 | 1485 | 1665 | 8000 | 53,28 | 93,24 | 4 | 128 | GDDR6 | 128 | 2661 | 83,16 | 5322 | 75 | |||
GeForce GTX 1660[11] | 14 marca 2019 | TU116-300-A1 | 6,6 | 284 | 1408 | 88 | 48 | brak | brak | 22 | 1530 | 1785 | 8000 | 73 | 135 | 6 | 192 | 192 | 4308 | 135 | 8616 | 120 | |||
GeForce GTX 1660 Ti[11] | 22 lutego 2019 | TU116-400-A1 | 1536 | 96 | brak | brak | 24 | 1500 | 1770 | 12000 | 88,6 | 177,1 | 288 | GDDR6 | 192 | 4608 | 144 | 9216 | 120 |