Jun 19, 2025
Faradilla A.
5menit Dibaca
Ollama memungkinkan Anda menjalankan berbagai large language model (LLM) di server pribadi atau sistem lokal untuk membuat AI agent pribadi. Sebagai contoh, Anda bisa mengonfigurasinya dengan DeepSeek R1, model AI yang populer berkat keakuratan dan biayanya yang terjangkau.
Di artikel ini, kami akan menjelaskan cara menggunakan DeepSeek dengan Ollama. Kami akan memberikan panduannya langkah demi langkah, mulai dari penginstalan platform hingga pengaturan obrolan sesuai kebutuhan penggunaan Anda. Mari mulai!
Persiapan awal
Sebelum mengonfigurasikan Ollama, pastikan Anda sudah menyiapkan platform VPS Linux yang akan kita gunakan untuk menghosting AI agent. Apabila ingin menginstalnya secara lokal, Anda bisa menggunakan komputer pribadi dengan sistem operasi Linux.
Mana pun yang Anda pilih, sistem Anda harus memenuhi persyaratan hardware minimum. Karena platform AI seperti Ollama membutuhkan resource yang besar, spesifikasi minimum yang Anda butuhkan mencakup:
- RAM 16 GB
- Ruang penyimpanan 12 GB
- 4 core CPU
Untuk sistem operasi, Anda bisa menggunakan distribusi Linux populer seperti Ubuntu dan CentOS. Pastikan Anda menggunakan versi terbaru untuk menghindari masalah kompatibilitas dan keamanan.
Apabila tidak memiliki sistem yang memenuhi persyaratan di atas, Anda bisa mendapatkannya di Hostinger. Dengan harga mulai dari Rp165900.00/bulan, paket VPS KVM 4 kami menawarkan 4 core CPU, RAM 16 GB, dan penyimpanan SSD NVMe 200 GB.

VPS kami juga menyediakan berbagai template OS untuk menginstal aplikasi dengan mudah, termasuk Ollama. Anda pun tidak perlu melakukan proses setup yang ribet dan lama, apalagi kalau masih pemula.
Selain itu, VPS Hostinger memiliki asisten AI bawaan, Kodee, yang bisa membantu menyelesaikan masalah atau memandu Anda mengelola server. Dengan menggunakan prompt, Anda bisa memintanya untuk memeriksa sistem atau menuliskan perintah untuk berbagai kebutuhan.
Cara menjalankan DeepSeek dengan Ollama
Setelah selesai menyiapkan persyaratan di atas, ikuti langkah-langkah berikut untuk menginstal Ollama di Linux.
1. Instal Ollama
Klien Hostinger bisa menginstal Ollama dengan mudah menggunakan template yang dipilih pada proses onboarding atau di menu Sistem Operasi hPanel.
Apabila tidak memilih template, Anda harus menggunakan perintah. Buat koneksi ke server melalui SSH menggunakan PuTTY atau Terminal. Kalau ingin menginstal Ollama secara lokal, lewati langkah ini dan cukup buka terminal sistem Anda.
Penting! Apabila Anda menggunakan distro berbasis Red Hat Enterprise Linux seperti CentOS atau AlmaLinux, ganti apt dengan dnf.
Setelah tersambung, ikuti langkah-langkah berikut untuk menginstal Ollama:
- Masukkan perintah berikut untuk mengupdate repositori server Anda. Kalau menggunakan distro berbasis Red Hat Enterprise Linux, seperti CentOS atau AlmaLinux, ganti apt dengan dnf.
sudo apt update
- Instal dependensi eksternal, yaitu software yang dibutuhkan Ollama agar bisa berjalan dengan baik. Berikut perintahnya:
sudo apt install python3 python3-pip python3-venv
- Masukkan perintah berikut untuk mendownload dan menyiapkan Ollama:
curl -fsSL https://ollama.com/install.sh | sh
- Buat lingkungan virtual Python dengan menjalankan perintah ini:
python3 -m venv ~/ollama-webui && source ~/ollama-webui/bin/activate
- Jalankan perintah di bawah ini untuk menyiapkanb Ollama web UI. Anda juga bisa menggunakan Ollama CLI, tapi caranya akan lebih rumit dan kurang intuitif:
pip install open-webui
- Mulai terminal virtual menggunakan Screen agar Ollama tetap berjalan di latar belakang setelah Anda menutup koneksi SSH.
screen -S Ollama
- Jalankan Ollama dengan menggunakan perintah berikut:
open-webui serve
Selesai! Sekarang, Anda bisa mengakses Ollama dengan memasukkan alamat berikut ini di browser web. Jangan lupa untuk mengganti 185.185.185.185 dengan alamat IP VPS Anda yang sebenarnya:
185.185.185.185:8080

2. Konfigurasikan DeepSeek
Setelah memastikan Ollama bisa berjalan dengan baik, mari kita konfigurasikan LLM DeepSeek R1. Kembali ke command-line interface sistem host Anda dan tekan Ctrl + C untuk menghentikan Ollama.
Apabila Anda menginstal Ollama menggunakan template OS Hostinger, cukup buat koneksi ke server Anda melalui SSH. Cara termudah untuk melakukannya adalah dengan menggunakan Terminal browser.
Kemudian, jalankan perintah ini untuk mendownload model Deepseek R1. Kami akan menggunakan versi 7b:
ollama run deepseek-r1:7b
Apabila Anda perlu menggunakan versi lain, seperti 1.5b, cukup ubah perintahnya. Untuk mempelajari lebih lanjut tentang perbedaan dan persyaratan setiap versi, lihat library DeepSeek Ollama.
Tunggu hingga sistem Anda selesai mendownload DeepSeek. Karena file LLM ini berukuran sekitar 5 GB, prosesnya mungkin akan cukup lama, tergantung pada kecepatan internet Anda.
Setelah download selesai, tekan Ctrl + d untuk kembali ke shell utama. Kemudian, jalankan perintah berikut untuk memeriksa apakah DeepSeek telah dikonfigurasi dengan benar:
ollama list

Apabila Anda melihat DeepSeek dalam daftar LLM Ollama, artinya konfigurasi Anda berhasil. Sekarang, mulai ulang antarmuka web:
open-webui serve
3. Uji coba DeepSeek di Ollama
Akses GUI Ollama Anda dan buat akun baru. Pengguna ini akan menjadi administrator default untuk AI agent Anda.
Setelah masuk, Anda akan melihat panel data utama tempat Anda bisa berinteraksi dengan DeepSeek. Mulailah mengobrol untuk memastikan LLM sudah berfungsi dengan baik.
Sebagai contoh, Anda bisa bertanya, “Explain what is VPS hosting.” Apabila DeepSeek bisa menjawabnya, berarti LLM dan AI agent Anda bekerja sebagaimana mestinya.

Tergantung pada koneksi internet dan penggunaan resource host, waktu yang dibutuhkan DeepSeek untuk memberikan respons akan berbeda-beda.
4. Perbaiki pengaturan Ollama
Meskipun Ollama dan DeepSeek bekerja tanpa masalah menggunakan konfigurasi default, Anda bisa menyempurnakan pengaturan obrolan sesuai dengan kebutuhan penggunaan Anda.

Untuk mengakses menu ini, klik ikon slider di bagian kanan atas dashboard Ollama, di samping ikon profil. Di bawah bagian Advanced Params, Anda bisa menyesuaikan berbagai pengaturan, termasuk:
- Streaming respons obrolan – mengatur apakah AI agent Anda menjawab pesan secara real-time atau tidak. Mengkatifkan opsi ini akan membuat respons lebih cepat, tapi juga menghabiskan daya komputasi yang lebih banyak.
- Seed – mengatur AI agent agar menghasilkan jawaban yang sama untuk pertanyaan tertentu ketika diatur ke nilai tertentu. Nilai defaultnya adalah random.
- Temperature – menyesuaikan tingkat kreativitas AI agent Anda. Nilai yang lebih tinggi akan menghasilkan jawaban yang lebih inovatif dan imajinatif.
- Reasoning effort – mengontrol tingkat detail pemikiran model AI sebelum memberikan jawaban. Nilainya, yang berkisar antara 1-100, menentukan jumlah iterasi penalaran yang akan diselesaikan oleh model sebelum menyelesaikan jawaban.
- Top K – mengurangi kemungkinan menghasilkan jawaban yang tidak masuk akal. Menetapkan nilai yang tinggi berarti AI agent Anda akan memberikan jawaban yang sangat beragam, tapi dengan kemungkinan halusinasi yang tinggi.
- Max tokens – mengatur jumlah maksimum token yang bisa digunakan oleh model AI Anda. Semakin tinggi nilainya, AI agent Anda akan menghasilkan jawaban yang lebih panjang dengan informasi yang kurang relevan.
Sebagai contoh, mengatur nilai Temperature yang lebih tinggi bisa sangat membantu apabila Anda menggunakan DeepSeek untuk menulis cerita fiksi. Sebaliknya, Anda mungkin perlu menurunkannya dan menaikkan Reasoning effort untuk menghasilkan kode.
Apabila ingin mempelajari lebih lanjut tentang pengaturan, menu, dan konfigurasi Ollama, Anda bisa membaca artikel kami tentang tutorial Ollama GUI.
Kesimpulan
Ollama adalah platform untuk menjalankan berbagai LLM di server atau komputer lokal untuk membuat AI agent pribadi. Melalui artikel ini, kami sudah menjelaskan cara menggunakan DeepSeek, model AI yang belakangan ini sangat populer, dengan Ollama.
Untuk menyiapkannya, Anda membutuhkan sistem Linux dengan minimal 4 inti CPU, RAM 16 GB, dan ruang penyimpanan 12 GB. Setelah persyaratan ini terpenuhi, instal Ollama dan Open WebUI menggunakan template OS Hostinger atau perintah.
Download DeepSeek untuk Ollama melalui command-line. Setelah selesai, mulai platform ini dengan menjalankan open-webui serve. Kemudian, akses dashboard platform menggunakan IP host dan port 8080.
Untuk meningkatkan respons Ollama berdasarkan kebutuhan penggunaan Anda, edit parameter pengaturan obrolan. Selain itu, gunakan teknik prompting AI yang tepat untuk meningkatkan kualitas jawaban DeepSeek.
Tanya jawab (FAQ) cara menggunakan DeepSeek dengan Ollama
Apa persyaratan untuk menjalankan DeepSeek dengan Ollama?
Untuk menjalankan DeepSeek dengan Ollama, Anda membutuhkan sistem host Linux dengan minimal 4 core CPU, RAM 16 GB, dan ruang penyimpanan 12 GB. Anda bisa menggunakan distro populer seperti Ubuntu dan CentOS untuk sistem operasinya. Jangan lupa, gunakan versi OS terbaru untuk menghindari masalah kompatibilitas dan keamanan.
Apa itu DeepSeek? Kenapa harus digunakan dengan Ollama?
DeepSeek adalah LLM yang dikenal berkat efisiensi dan biayanya yang lebih terjangkau daripada model populer lainnya seperti OpenAI o1, namun dengan tingkat akurasi yang serupa. Menggunakannya dengan Ollama memungkinkan Anda membuat AI agent pribadi yang terjangkau dengan memanfaatkan kemampuan LLM ini.
Bisakah menggunakan DeepSeek dengan Ollama di versi Ubuntu apa pun?
Secara teori, Anda bisa menginstal Ollama dan menjalankan DeepSeek pada versi Ubuntu apa pun. Namun, sebaiknya gunakan versi sistem operasi yang lebih baru, seperti Ubuntu 20.04, 22.04, dan 24.04 karena risiko masalah kompatibilitas dan keamanan yang lebih rendah.
Tutorial menggunakan DeepSeek dengan Ollama di VPS