Bagaimana prosesor dirancang dan diproduksi: masa depan arsitektur komputer

gambar

Meskipun perbaikan terus-menerus dan kemajuan bertahap di setiap generasi baru, perubahan mendasar belum terjadi di industri prosesor untuk waktu yang lama. Langkah besar ke depan adalah transisi dari vakum ke transistor, serta transisi dari komponen individu ke sirkuit terintegrasi. Namun, setelah mereka, pergeseran paradigma serius dengan besaran yang sama tidak terjadi.

Ya, transistor telah menjadi lebih kecil, keripik lebih cepat, dan kinerja telah meningkat ratusan kali, tetapi kita mulai melihat stagnasi ...

Ini adalah bagian keempat dan terakhir dari serangkaian artikel tentang pengembangan CPU yang membahas tentang desain dan pembuatan prosesor. Mulai dari level yang tinggi, kami belajar bagaimana kode komputer dikompilasi ke dalam bahasa assembly, dan kemudian ke instruksi biner yang diinterpretasikan oleh CPU. Kami membahas bagaimana arsitektur prosesor dirancang dan mereka memproses instruksi. Kemudian kami melihat berbagai struktur yang membentuk prosesor.

Sedikit lebih dalam tentang topik ini, kami melihat bagaimana struktur ini dibuat, dan bagaimana milyaran transistor bekerja bersama di dalam prosesor. Kami memeriksa proses pembuatan fisik prosesor dari silikon mentah. Kami belajar tentang sifat-sifat semikonduktor dan bagaimana bagian dalam sebuah chip terlihat. Jika Anda melewatkan salah satu topik, berikut adalah daftar artikel dalam seri ini:

Bagian 1: Dasar-dasar arsitektur komputer (arsitektur set instruksi, caching, saluran pipa, hyperthreading)
Bagian 2: Proses desain CPU (sirkuit listrik, transistor, elemen logika, sinkronisasi)
Bagian 3: Tata letak dan pembuatan fisik chip (VLSI dan fabrikasi silikon)
Bagian 4: Tren saat ini dan arah masa depan yang penting dalam arsitektur komputer (laut akselerator, integrasi tiga dimensi, FPGA, Near Memory Computing)

Mari kita beralih ke bagian keempat. Perusahaan pengembangan tidak berbagi dengan publik tentang penelitian mereka atau rincian teknologi modern, sehingga sulit bagi kita untuk membayangkan dengan jelas apa sebenarnya yang ada di dalam CPU komputer. Namun, kita dapat melihat penelitian modern dan mencari tahu ke arah mana industri ini bergerak.

Salah satu gambar terkenal dari industri prosesor adalah Hukum Moore. Dikatakan bahwa jumlah transistor dalam sebuah chip berlipat ganda setiap 18 bulan. Untuk waktu yang lama, aturan praktis ini adil, tetapi pertumbuhan mulai melambat. Transistor menjadi sangat kecil sehingga kita mulai mendekati batas ukuran yang dapat dicapai secara fisik. Tanpa teknologi baru yang revolusioner, kita harus mengeksplorasi kemungkinan lain untuk pertumbuhan produktivitas di masa depan.


Hukum Moore selama 120 tahun. Grafik ini menjadi lebih menarik jika Anda mengetahui bahwa 7 poin terakhir berhubungan dengan GPU Nvidia, dan bukan untuk prosesor tujuan umum. Ilustrasi Steve Jarvetson

Satu kesimpulan berikut dari analisis ini: untuk meningkatkan produktivitas, perusahaan mulai meningkatkan jumlah core daripada frekuensi. Untuk alasan ini, kami mengamati bagaimana prosesor delapan-inti banyak digunakan, daripada prosesor dual-core dengan frekuensi 10 GHz. Kami hanya tidak punya banyak ruang tersisa untuk pertumbuhan, kecuali penambahan core baru.

Di sisi lain, bidang komputasi kuantum menjanjikan ruang besar untuk pertumbuhan di masa depan. Saya bukan spesialis, dan karena teknologinya masih dikembangkan, masih ada beberapa "spesialis" nyata di bidang ini. Untuk menghilangkan mitos, saya akan mengatakan bahwa komputasi kuantum tidak akan dapat memberi Anda 1000 frame per detik dalam render realistis, atau sesuatu seperti itu. Sejauh ini, keunggulan utama komputer kuantum adalah mereka memungkinkan penggunaan algoritma yang lebih kompleks yang sebelumnya tidak dapat dicapai.


Salah satu prototipe komputer kuantum IBM

Dalam komputer tradisional, transistor dapat dihidupkan atau dimatikan, yang sesuai dengan 0 atau 1. Dalam komputer kuantum, superposisi dimungkinkan, yaitu, sedikit dapat secara bersamaan di negara 0 dan 1. Berkat fitur baru ini, para ilmuwan dapat mengembangkan metode perhitungan baru untuk Mereka akan dapat memecahkan masalah yang kita masih belum memiliki kekuatan komputasi yang cukup. Intinya bukan bahwa komputer kuantum lebih cepat, tetapi bahwa mereka adalah model komputasi baru yang akan memungkinkan kita untuk memecahkan jenis masalah lainnya.

Masih ada satu atau dua dekade yang tersisa sebelum pengenalan masal teknologi ini, jadi tren apa yang mulai kita lihat dalam prosesor nyata saat ini? Lusinan penelitian aktif sedang berlangsung, tetapi saya hanya akan menyentuh beberapa bidang yang, menurut pendapat saya, akan memiliki dampak terbesar.

Tren yang berkembang adalah pengaruh komputasi heterogen . Teknik ini terdiri dari menggabungkan banyak elemen komputasi yang berbeda ke dalam satu sistem. Sebagian besar dari kita memanfaatkan pendekatan ini sebagai GPU terpisah di komputer. Prosesor sentral sangat fleksibel dan dapat dengan kecepatan yang layak melakukan berbagai tugas komputasi. Di sisi lain, GPU dirancang khusus untuk komputasi grafis, seperti perkalian matriks. Mereka mengatasi dengan sangat baik dengan ini dan pesanan besarnya lebih cepat dari CPU dalam jenis instruksi. Mentransfer bagian dari perhitungan grafik dari CPU ke GPU, kita dapat mempercepat perhitungan. Setiap programmer dapat mengoptimalkan perangkat lunak dengan mengubah algoritma, tetapi mengoptimalkan peralatan jauh lebih sulit.

Tetapi GPU bukan satu-satunya area di mana akselerator menjadi lebih populer. Sebagian besar ponsel cerdas memiliki puluhan akselerator perangkat keras yang dirancang untuk mempercepat tugas yang sangat spesifik. Gaya komputasi ini disebut Laut Akselerator , contohnya adalah prosesor kriptografi, prosesor gambar, akselerator pembelajaran mesin, encoders / decoder video, prosesor biometrik, dan banyak lagi.

Beban menjadi semakin terspesialisasi, sehingga desainer memasukkan lebih banyak akselerator dalam chip mereka. Penyedia layanan cloud, seperti AWS, telah mulai memberi pengembang kartu FPGA untuk mempercepat komputasi awan mereka. Tidak seperti elemen komputasi tradisional seperti CPU dan GPU, yang memiliki arsitektur internal tetap, FPGA fleksibel. Ini adalah peralatan yang hampir dapat diprogram yang dapat disesuaikan agar sesuai dengan kebutuhan perusahaan.

Jika seseorang membutuhkan pengenalan gambar, maka ia mengimplementasikan algoritma ini di perangkat keras. Jika seseorang ingin mensimulasikan pekerjaan arsitektur perangkat keras baru, maka sebelum pembuatannya dapat diuji pada FPGA. FPGA memberikan kinerja dan efisiensi energi yang lebih besar daripada GPU, tetapi masih kurang dari ASIC (sirkuit terintegrasi khusus aplikasi - sirkuit terpadu tujuan khusus). Perusahaan lain, seperti Google dan Nvidia, sedang mengembangkan ASIC pembelajaran mesin terpisah untuk mempercepat pengenalan dan analisis gambar.


Tembakan kristal prosesor seluler populer menunjukkan strukturnya.

Melihat gambar kristal relatif terhadap prosesor modern, Anda dapat melihat bahwa inti itu sendiri sebenarnya tidak menempati sebagian besar area CPU. Berbagai akselerator mengambil porsi yang lebih besar. Ini memungkinkan untuk mempercepat perhitungan yang sangat terspesialisasi, serta secara signifikan mengurangi konsumsi daya.

Sebelumnya, ketika itu perlu ditambahkan ke sistem pemrosesan video, pengembang harus memasang chip baru di dalamnya. Namun, ini sangat tidak efisien dalam hal konsumsi energi. Setiap kali sinyal perlu keluar dari chip melalui konduktor fisik ke chip lain, sejumlah besar energi diperlukan per bit. Sebagian kecil dari joule itu sendiri tampaknya tidak menjadi pemborosan besar, tetapi mentransfer data di dalam dan tidak di luar chip bisa 3-4 kali lipat lebih efisien. Berkat integrasi akselerator tersebut dengan CPU, kami baru-baru ini melihat peningkatan jumlah chip dengan konsumsi daya yang sangat rendah.

Namun, akselerator tidak ideal. Semakin kita menambahkannya ke sirkuit, chip menjadi kurang fleksibel dan kita mulai mengorbankan kinerja keseluruhan demi kinerja puncak dari jenis-jenis komputasi khusus. Pada titik tertentu, seluruh chip hanya berubah menjadi seperangkat akselerator dan tidak lagi menjadi CPU yang bermanfaat. Keseimbangan antara kinerja komputasi khusus dan kinerja keseluruhan selalu sangat hati-hati disetel. Perbedaan antara peralatan tujuan umum dan muatan khusus ini disebut celah spesialisasi .

Meskipun sebagian orang berpikir. Karena kita berada di puncak gelembung GPU / Machine Learning, kemungkinan besar kita dapat berharap bahwa semakin banyak komputasi akan ditransfer ke akselerator khusus. Komputasi awan dan AI terus berkembang, sehingga GPU terlihat seperti solusi terbaik untuk mencapai tingkat komputasi volumetrik yang diperlukan.

Bidang lain di mana desainer mencari cara untuk meningkatkan produktivitas adalah memori. Secara tradisional, membaca dan menulis nilai selalu menjadi salah satu hambatan paling serius dalam prosesor. Tembolok cepat dan besar dapat membantu kami, tetapi membaca dari RAM atau SSD dapat memakan waktu puluhan ribu siklus jam. Oleh karena itu, para insinyur sering melihat akses memori sebagai lebih mahal daripada perhitungan itu sendiri. Jika prosesor ingin menambahkan dua angka, maka pertama-tama perlu menghitung alamat memori yang digunakan untuk menyimpan angka-angka tersebut, mencari tahu pada level apa hirarki memori ada data ini, membaca data ke dalam register, melakukan perhitungan, menghitung alamat penerima dan menulis nilai ke tempat yang tepat. Untuk instruksi sederhana, yang mungkin memerlukan satu hingga dua siklus, ini sangat tidak efisien.

Gagasan baru yang sedang dieksplorasi secara aktif adalah teknik yang disebut Near Memory Computing . Alih-alih mengambil potongan kecil data dari memori dan menghitungnya dengan prosesor cepat, para peneliti membalikkan pekerjaan. Mereka bereksperimen dengan membuat prosesor kecil langsung di pengontrol memori RAM atau SSD. Karena kenyataan bahwa perhitungan semakin dekat ke memori, ada potensi penghematan energi dan waktu yang sangat besar, karena data tidak lagi perlu ditransmisikan begitu sering. Modul komputer memiliki akses langsung ke data yang mereka butuhkan, karena mereka langsung di memori. Gagasan ini masih dalam masa pertumbuhan, tetapi hasilnya terlihat menjanjikan.

Salah satu rintangan yang harus diatasi untuk komputasi memori dekat adalah keterbatasan proses pembuatan. Seperti yang dinyatakan di bagian ketiga , proses produksi silikon sangat kompleks dan melibatkan puluhan tahap. Proses-proses ini biasanya dikhususkan untuk pembuatan elemen logika cepat atau elemen penyimpanan dengan spasi yang sempit. Jika Anda mencoba membuat chip memori menggunakan proses manufaktur yang dioptimalkan untuk komputasi, Anda mendapatkan chip dengan kepadatan elemen yang sangat rendah. Jika kami mencoba membuat prosesor menggunakan proses pembuatan drive, kami mendapatkan kinerja yang sangat rendah dan timing yang besar.


Contoh integrasi 3D menunjukkan koneksi vertikal antara lapisan transistor.

Salah satu solusi potensial untuk masalah ini adalah integrasi 3D . Prosesor tradisional memiliki satu lapisan transistor yang sangat luas, tetapi ini memiliki keterbatasan. Seperti namanya, integrasi tiga dimensi adalah proses mengatur beberapa lapisan transistor di atas satu sama lain untuk meningkatkan kepadatan dan mengurangi penundaan. Kolom vertikal yang diproduksi dalam berbagai proses pembuatan kemudian dapat digunakan untuk penggabungan antar-lapisan. Ide ini sudah lama diusulkan, tetapi industri telah kehilangan minat karena kesulitan serius dalam implementasinya. Baru-baru ini, kami menyaksikan kemunculan teknologi penyimpanan 3D NAND dan kebangkitan bidang penelitian ini.

Selain perubahan fisik dan arsitektur, tren lain akan sangat mempengaruhi seluruh industri semikonduktor - penekanan yang lebih besar pada keamanan. Sampai saat ini, keamanan prosesor dianggap hampir pada saat terakhir. Ini mirip dengan bagaimana Internet, email dan banyak sistem lain yang kita gunakan secara aktif dikembangkan hampir tanpa memperhatikan keamanan. Semua tindakan perlindungan yang ada "kacau" ketika insiden terjadi, sehingga kami merasa aman. Di bidang prosesor, taktik semacam itu telah merugikan perusahaan, dan terutama Intel.

Bugs Specter dan Meltdown mungkin merupakan contoh paling terkenal tentang bagaimana perancang menambahkan fitur yang secara signifikan mempercepat prosesor, tidak sepenuhnya menyadari risiko keamanan yang terkait dengan ini. Dalam pengembangan prosesor modern, lebih banyak perhatian diberikan pada keamanan sebagai bagian penting dari arsitektur. Ketika keamanan ditingkatkan, kinerja sering kali menderita, tetapi mengingat kerusakan yang disebabkan oleh bug keamanan serius, dapat dikatakan bahwa lebih baik fokus pada keamanan pada tingkat yang sama seperti pada kinerja.

Pada bagian-bagian sebelumnya dari seri, kami menyentuh teknik seperti sintesis tingkat tinggi, yang memungkinkan perancang untuk pertama-tama menggambarkan struktur dalam bahasa tingkat tinggi, dan kemudian memungkinkan algoritma kompleks untuk menentukan konfigurasi perangkat keras yang optimal untuk fungsi tersebut. Dengan setiap generasi, siklus desain menjadi lebih mahal, sehingga para insinyur mencari cara untuk mempercepat pengembangan. Seharusnya diharapkan bahwa di masa depan tren ini dalam desain perangkat keras dengan perangkat lunak hanya akan meningkat.

Tentu saja, kami tidak dapat memprediksi masa depan, tetapi ide-ide inovatif dan bidang penelitian yang kami pertimbangkan dalam artikel dapat berfungsi sebagai pedoman untuk harapan dalam desain prosesor masa depan. Kami yakin dapat mengatakan bahwa kami sedang mendekati akhir dari perbaikan biasa untuk proses pembuatan. Untuk terus meningkatkan produktivitas di setiap generasi, insinyur harus menemukan solusi yang lebih kompleks.

Kami berharap seri empat artikel kami telah memacu minat Anda untuk mempelajari desain, verifikasi, dan produksi prosesor. Ada banyak sekali materi tentang topik ini, dan jika kami mencoba mengungkap semuanya, maka masing-masing artikel dapat tumbuh menjadi keseluruhan program universitas. Saya harap Anda mempelajari sesuatu yang baru dan sekarang Anda lebih memahami betapa canggihnya komputer di setiap level.

Source: https://habr.com/ru/post/id458670/


All Articles