Paano i-install ang LLaMA 3 sa Windows 11 PC?

Paano I Install Ang Llama 3 Sa Windows 11 Pc



Ang Llama 3 ay ang pinakabagong modelo ng malaking wika ng Meta. Magagamit mo ito para sa iba't ibang layunin, tulad ng paglutas ng iyong mga query, paghingi ng tulong sa iyong takdang-aralin sa paaralan at mga proyekto, atbp. Ang pag-deploy ng Llama 3 sa iyong Windows 11 machine nang lokal ay makakatulong sa iyong gamitin ito anumang oras kahit na walang access sa internet. Ipinapakita sa iyo ng artikulong ito kung paano i-install ang Llama 3 sa isang Windows 11 PC .



  I-install ang Llama sa Windows





Paano i-install ang Llama 3 sa isang Windows 11 PC

Ang pag-install ng Llama 3 sa isang Windows 11 PC sa pamamagitan ng Python ay nangangailangan ng mga teknikal na kasanayan at kaalaman. Gayunpaman, binibigyang-daan ka ng ilang alternatibong pamamaraan na lokal na i-deploy ang Llama 3 sa iyong Windows 11 machine. Ipapakita ko sa iyo ang mga pamamaraang ito.





Upang i-install ang Llama 3 sa iyong Windows 11 PC, dapat mong isagawa ang ilang mga command sa Command Prompt. Gayunpaman, papayagan ka lang nitong gamitin ang bersyon ng command line nito. Dapat kang gumawa ng mga karagdagang hakbang kung gusto mong gamitin ang web UI nito. Ipapakita ko sa iyo ang parehong mga pamamaraang ito.



I-deploy ang Llama 3 sa Windows 11 PC sa pamamagitan ng CMD

Upang i-deploy ang Llama 3 sa iyong Windows 11 PC, kailangan mong i-install ang Ollama sa iyong Windows machine. Ang mga hakbang para sa parehong ay ang mga sumusunod:

  I-download ang Ollama sa Windows

  1. Bisitahin Ang opisyal na website ng Ollama .
  2. Mag-click sa I-download button at pagkatapos ay piliin Windows .
  3. Ngayon, mag-click sa I-download para sa Windows button upang i-save ang exe file sa iyong PC.
  4. Patakbuhin ang exe file upang i-install ang Ollama sa iyong makina.

Kapag na-install na ang Ollama sa iyong device, i-restart ang iyong computer. Dapat itong tumatakbo sa background. Makikita mo ito sa iyong System Tray. Ngayon, mag-click sa opsyon na Mga Modelo sa website ng Ollama. Makikita mo ang iba't ibang modelo nito.



Available ang Llama 3.1 sa sumusunod na tatlong parameter:

  • 8B
  • 70B
  • 405B

Ang huli ay ang pinakamalaking parameter at malinaw na hindi maaaring patakbuhin sa isang low-end na PC. Ang Llama 3.2 ay may sumusunod na dalawang parameter:

  • 1B
  • 3B

Mag-click sa bersyon ng Llama na gusto mong i-install sa iyong PC. Halimbawa, kung gusto mong i-install ang Llama 3.2, mag-click sa Llama 3.2. Sa drop-down, maaari mong piliin ang parameter na gusto mong i-install. Pagkatapos nito, kopyahin ang command sa tabi nito at i-paste ito sa Command prompt.

  Utos ng modelo ng Flame 3.2 1B

Para sa iyong kaginhawahan, isinulat ko ang parehong mga utos para sa modelong Llama 3.2. Upang i-install ang modelong Llama 3.2 3B, patakbuhin ang sumusunod na command:

chrome beta vs dev
ollama run llama3.2:3b

Upang i-install ang modelong Llama 3.2 1B, gamitin ang sumusunod na command:

ollama run llama3.2:1b

  Matagumpay ang pag-install

Buksan ang Command Prompt, i-type ang alinman sa mga nabanggit na command (batay sa iyong mga kinakailangan), at pindutin Pumasok . Aabutin ng ilang oras upang i-download ang mga kinakailangang file. Ang oras ng pag-download ay magdedepende rin sa bilis ng iyong koneksyon sa internet. Pagkatapos ng pagkumpleto, makikita mo ang tagumpay mensahe sa Command Prompt.

Ngayon, i-type ang iyong mensahe para magamit ang modelong Llama 3.2. Kung gusto mong i-install ang modelong Llama 3.1, gamitin ang mga command na available sa website ng Ollama.

Sa susunod na ilunsad mo ang Command Prompt, gamitin ang parehong command upang patakbuhin ang Llama 3.1 o 3.2 sa iyong PC.

Ang pag-install ng Llama 3 sa pamamagitan ng CMD ay may isang kawalan. Hindi nito nai-save ang iyong kasaysayan ng chat. Gayunpaman, kung i-deploy mo ito sa lokal na host, mase-save ang iyong kasaysayan ng chat at makakakuha ka ng mas mahusay na User Interface. Ang susunod na paraan ay nagpapakita kung paano gawin iyon.

I-deploy ang Llama 3 Web UI sa Windows 11

Ang paggamit ng Llama 3 sa isang web browser ay nagbibigay ng mas mahusay na user interface at nakakatipid din sa kasaysayan ng chat kumpara sa paggamit nito sa CMD window. Ipapakita ko sa iyo kung paano i-deploy ang Llama 3 sa iyong web browser.

Upang magamit ang Llama 3 sa iyong web browser, ang Llama 3 sa pamamagitan ng Ollama at Docker ay dapat na mai-install sa iyong system. Kung hindi mo pa na-install ang Llama 3, i-install ito gamit ang Ollama (tulad ng ipinaliwanag sa itaas). Ngayon, i-download at i-install ang Docker mula dito opisyal na website .

Pagkatapos i-install ang Docker, ilunsad ito at mag-sign up upang lumikha ng isang account. Hindi tatakbo ang Docker hanggang sa mag-sign up ka. Pagkatapos mag-sign up, mag-sign in sa iyong account sa Docker app. I-minimize ang Docker sa System Tray. Dapat na tumatakbo sa background ang Docker at Ollama apps. Kung hindi, hindi mo magagamit ang Llama 3 sa iyong web browser.

  Patakbuhin ang utos ng Llama para sa Docker

Ngayon, buksan ang Command Prompt, kopyahin ang sumusunod na command, at i-paste ito sa Command Prompt:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

  Docker Container para sa Llama 3

Ang utos sa itaas ay magtatagal upang ma-download ang mga kinakailangang mapagkukunan. Samakatuwid, magkaroon ng kaunting pasensya. Matapos makumpleto ang utos, buksan ang Docker at piliin ang Mga lalagyan seksyon mula sa kaliwang bahagi. Makakakita ka ng isang container na awtomatikong nilikha gamit ang port 3000:8080.

Mag-click sa port 3000:8080. Magbubukas ito ng bagong tab sa iyong default na web browser. Ngayon, mag-sign up at mag-sign in para gamitin ang Llama 3 sa iyong web browser. Kung nakita mo ang address bar, makikita mo localhost:3000 doon, na nangangahulugan na ang Llama 3 ay lokal na naka-host sa iyong computer. Magagamit mo ito nang walang koneksyon sa internet.

  Gamitin ang Llama 3 sa web browser

Piliin ang iyong Llama chat model mula sa drop-down. Kung gusto mong magdagdag ng higit pang mga modelo ng chat ng Llama 3, kailangan mong i-install ito sa pamamagitan ng Ollama gamit ang mga kinakailangang command. Pagkatapos nito, awtomatikong magiging available ang modelo sa iyong web browser.

Ang lahat ng iyong kasaysayan ng chat ay mase-save at maa-access sa kaliwang bahagi. Kapag gusto mong lumabas, i-log out ang iyong session sa iyong web browser. Pagkatapos nito, buksan ang Docker app at mag-click sa Tumigil ka pindutan upang ihinto ang Docker. Ngayon, maaari mong isara ang Docker.

uninstall windows update

Kapag gusto mong gamitin ang Llama 3 sa iyong web browser sa susunod, ilunsad ang Ollama at Docker, maghintay ng ilang minuto, at pagkatapos ay mag-click sa port sa Docker container upang buksan ang localhost server sa iyong web browser. Ngayon, mag-sign in sa iyong account at simulang gamitin ang Llama 3.

Sana makatulong ito.

Maaari bang tumakbo ang Llama 3 sa Windows?

Depende sa configuration ng hardware ng iyong computer, maaari mong patakbuhin ang Llama 3 sa iyong system. Ang 1B na modelo nito ang pinakamagaan. Maaari mong i-install at patakbuhin ito sa iyong system sa pamamagitan ng command prompt.

Magkano ang RAM ang kailangan ko para sa Llama 3?

Ang pinakamagaan na modelo ng Llama 3 ay Llama 3.2 1B. Dapat ay mayroong 16 GB ng RAM ang iyong system upang patakbuhin ang modelong Llama 3.2 1B. Bilang karagdagan dito, ang iyong system ay dapat ding magkaroon ng isang heavy-duty na GPU. Ang mas matataas na modelo ng Llama 3 ay nangangailangan ng mas maraming mapagkukunan ng system.

Basahin ang susunod : Paano gamitin ang Leonardo Phoenix AI .

Patok Na Mga Post