Model Deepseek R1 telah menciptakan pengaruh besar pada industri kecerdasan buatan, melampaui TATGPT dan menempati posisi terkemuka di App Store AS. Namun, kekhawatiran tentang privasi yang terkait dengan penyimpanan data di Cina telah membuat banyak pengguna mencari opsi penyebaran lokal. Untungnya, Anda dapat menjalankan Deepseek R1 secara lokal di Windows, MacOS atau PC Linux serta di Android dan iPhone, menggunakan LM Studio, Ollama dan Open WebUI. Instruksi Langkah -BY -SEP Lep akan membantu Anda melakukan proses ini.
Meminta sistem untuk menjalankan Deepseek R1 secara lokal:
Sebelum memulai, pastikan perangkat Anda memenuhi persyaratan minimum, termasuk:
– PC, Mac atau Linux: Setidaknya 8GB RAM direkomendasikan.
– Android dan iPhone: Setidaknya 6GB RAM diperlukan untuk operasi yang lancar.
Cara menjalankan Deepseek R1 Local di PC dengan LM Studio:
1. Unduh dan instal LM Studio (versi 0.3.8 dan di atas) di sistem Anda.
2. Mulai LM Studio dan cari model Deepseek R1 (Qwen 7B).
3. Unduh model (membutuhkan setidaknya 5GB penyimpanan dan RAM 8GB).
4. Beralih ke jendela percakapan dan unduh model.
5. Klik pada “Muat Model”. Jika kesalahan ditemui, kurangi beban GPU menjadi 0 dan coba lagi.
6. Sekarang, Anda dapat berbicara dengan Deepseek R1 secara lokal di komputer Anda.
Cara menjalankan deepseek r1 secara lokal di pc dengan ollama:
1. Instal ollama (gratis) di Windows, MacOS atau Linux.
2. Jalankan perintah untuk mengunduh model Deepseek R1 1.5B.
3. Jika Anda memiliki PC berkinerja tinggi, cobalah menjalankan model 7B.
4. Mulai mengobrol dengan Deepseek R1 secara lokal.
Cara menjalankan deepseek r1 lokal menggunakan webui terbuka:
1. Atur Python dan Pip di komputer Anda.
2. Buka Instalasi WebUI.
3. Mulai model Deepseek R1 melalui Ollama.
4. Setelah menjalankan Ollama, mulai membuka WebUI.
5. Buka Buka http: // localhost: 8080 Di browser Anda dan mulai mengobrol dengan Deepseek R1.
Cara menjalankan Deepseek R1 secara lokal di Android & iPhone:
1. Instal PocketPal AI dari Play (Android) atau App Store (iPhone).
2. Buka aplikasi dan pergi ke model.
3. Unduh model Deepseek R1 dan mulai mengobrol dengan model di ponsel Anda.
Metode -metode ini memungkinkan Anda untuk menjalankan Deepseek R1 secara lokal di perangkat Anda tanpa perlu koneksi internet, memastikan privasi yang lebih baik. Anda dapat menikmati percakapan yang berjalan dengan kecerdasan buatan tanpa condong ke server online! 🚀
Itu Deepseek R1 Model ini telah menciptakan dampak yang signifikan pada industri AI, melampaui TATGPT dan memastikan posisi terdepan di App Store AS. Namun, sementara Deepseek R1 dapat mengaksesnya secara gratis di situs web resminya, kekhawatiran tentang privasi yang terkait dengan penyimpanan data di Cina telah membuat banyak pengguna mencari opsi. Untungnya, Anda dapat menjalankan Deepseek R1 di daerah tersebut Windows, MacOS atau PC Linuxsebagai Android dan iPhone Peralatan, gunakan LM Studio, Ollama dan Buka WebUi. Panduan Langkah -By -Lep ini akan memandu Anda seluruh proses.
Persyaratan sistem untuk menjalankan Deepseek R1 secara lokal
Sebelum Anda mulai, pastikan perangkat Anda memenuhi persyaratan minimum:
- PC, Mac atau Linux: Setidaknya RAM 8GB Direkomendasikan. Dengan memori 8GB, Anda dapat berlari Deepseek R1 1.5b Model dengan kira -kira 13 kode pemberitahuan per detik. Model High -End (7b, 14b, 32b dan 70b) membutuhkan Tambahkan RAM, CPU Cepat dan GPU High -End.
- Android & iPhone: Setidaknya RAM 6GB diperlukan untuk operasi yang lancar. Peralatan High -D Snapdragon 8-Series atau Chip Seri Apple Akan lebih baik.
Cara menjalankan Deepseek R1 secara lokal di PC dengan LM Studio
LM Studio adalah alat ramah pengguna yang menyederhanakan menjalankan model AI lokal. Ini adalah cara menggunakannya:
- Unduh dan instal LM Studio (Versi 0.3.8 atau lebih) pada sistem PC, Mac atau Linux Anda.
- Mulai LM Studio Dan arahkan ke jendela pencarian di panel kontrol kiri.
- Di bawah Pencarian Modelmencari Deepseek R1 Depek R1 (Qwen 7B) (Tersedia di atas Memeluk).
- Unduh modelnya (Setidaknya minta Penyimpanan 5GB dan RAM 8GB).

- Mengubah Mengobrol jendela dan Model unduh.

- Klik “Model Muat”. Jika Anda memiliki kesalahan, Kurangi beban GPU menjadi 0 Dan coba lagi.

- Sekarang, Anda bisa Mengobrol dengan Deepseek R1 secara lokal Di komputer Anda!

Cara menjalankan deepseek r1 secara lokal di pc dengan ollama
Ollama menyediakan antarmuka baris perintah untuk menjalankan model AI secara efektif.
- Instal ollama (gratis) di Windows, MacOS atau Linux.
- Membuka Terminal (atau prompt perintah) dan jalankan perintah berikut untuk mengunduh Deepseek R1 1.5B Model:
ollama run deepseek-r1:1.5b

- Jika Anda memiliki PC berkinerja tinggi, coba jalankan Model 7bPersyaratan itu Memori 4.7GB:
ollama run deepseek-r1:7b
- Mulai obrolan Dengan Deepseek R1 secara lokal.
- Untuk menyingkirkan sesi, gunakan Ctrl + d jalan pintas.
Cara menjalankan deepseek r1 lokal menggunakan webui terbuka
Untuk a Antarmuka seperti gerejaAnda dapat menginstal WebUI yang dibuka, terintegrasi dengan Ollama.
- Atur Python dan Pip Di komputer Anda.
- Membuka Terminal (atau prompt perintah) dan Pengaturan Pembukaan Webui:
- Mulai model Deepseek R1 melalui Ollama:
ollama run deepseek-r1:1.5b
- Setelah menjalankan Ollama, mulailah membuka WebUi:
- Membuka http: // localhost: 8080 Di browser Anda.
- Klik “Mulai” dan masukkan nama Anda.

- Buka WebUI akan secara otomatis mendeteksi Deepseek R1 adalah model default.

- Berhenti, klik kanan Ollama di baki sistem dan keluar dari aplikasi.
Cara menjalankan Deepseek R1 secara lokal di Android & iPhone
Untuk menjalankan Deepseek R1 secara lokal di perangkat seluler, AI Pocketpal adalah pilihan terbaik.
- Pasang AI PocketPal Dari Play Store (Android) atau App Store (iPhone).
- Buka aplikasi dan tekan “Pergi ke model”.
- Klik Tombol ++ Di kanan bawah dan terpilih “Tambahkan dari wajah pelukan”.

- Mencari Deepseek-R1-Distill-Qwen-Qwen-1.5b melalui Bartowski.
- Unduh yang sesuai Model kuantisasi Berdasarkan RAM yang tersedia (Q5_k_m Persyaratan ~ 1,3 GB RAM).
- Kembali dan tekan “Memuat” Untuk mulai mengobrol dengan Deepseek R1 secara lokal.

- Sekarang, Anda dapat berbicara secara lokal dengan model Deepseek R1 di ponsel Android atau iPhone Anda.
Pemikiran terakhir
Metode ini memungkinkan Anda untuk berlari Deepseek R1 secara lokal UPS Anda PC, Mac, Linux, Android atau iPhone Tidak ada koneksi internet, jaminan privasi yang lebih baik. Ketika Model 1.5b dan 7b Dapat membuat halusinasi atau salah, Model 32b Memberkati Enkripsi dan penalaran yang lebih baik Kemampuan jika Anda punya Perangkat keras yang kuat.
Sekarang Anda bisa menikmati Percakapan ai Tidak perlu mengandalkan server online! 🚀
< Div class = "kehamilan">
< H1> KESIMPULAN Anda dapat menjalankan R1 secara lokal Deepseek di Windows, MacOS, Android dan iPhone menggunakan LM Studio, Ollama dan Open WebUI. Ini membantu Anda mengalami percakapan tanpa menghubungkan internet, memastikan privasi yang lebih baik. Coba langkah -langkah di atas untuk mengalami percakapan di AI di perangkat Anda! 🚀
Eksplorasi konten lain dari Heart To Heart
Berlangganan untuk dapatkan pos terbaru lewat email.