นี่คือแอป Windows ชื่อ Ollama Python ซึ่งสามารถดาวน์โหลดเวอร์ชันล่าสุดได้ที่ ollama-0.5.3.tar.gz สามารถรันออนไลน์ได้บน OnWorks ซึ่งเป็นผู้ให้บริการโฮสติ้งฟรีสำหรับเวิร์กสเตชัน
ดาวน์โหลดและรันแอปออนไลน์ชื่อ Ollama Python พร้อม OnWorks ได้ฟรี
ทำตามคำแนะนำเหล่านี้เพื่อเรียกใช้แอปนี้:
- 1. ดาวน์โหลดแอปพลิเคชั่นนี้ในพีซีของคุณ
- 2. เข้าไปที่ file manager https://www.onworks.net/myfiles.php?username=XXXXX ด้วยชื่อผู้ใช้ที่คุณต้องการ
- 3. อัปโหลดแอปพลิเคชันนี้ในตัวจัดการไฟล์ดังกล่าว
- 4. เริ่มโปรแกรมจำลองออนไลน์ของ OS OnWorks จากเว็บไซต์นี้ แต่โปรแกรมจำลองออนไลน์ของ Windows ที่ดีกว่า
- 5. จากระบบปฏิบัติการ Windows ของ OnWorks ที่คุณเพิ่งเริ่มต้น ไปที่ตัวจัดการไฟล์ของเรา https://www.onworks.net/myfiles.php?username=XXXXX พร้อมชื่อผู้ใช้ที่คุณต้องการ
- 6. ดาวน์โหลดแอปพลิเคชั่นและติดตั้ง
- 7. ดาวน์โหลดไวน์จากที่เก็บซอฟต์แวร์ลีนุกซ์ดิสทริบิวชันของคุณ เมื่อติดตั้งแล้ว คุณสามารถดับเบิลคลิกที่แอปเพื่อเรียกใช้แอปด้วย Wine คุณยังสามารถลองใช้ PlayOnLinux ซึ่งเป็นอินเทอร์เฟซแฟนซีบน Wine ที่จะช่วยคุณติดตั้งโปรแกรมและเกมยอดนิยมของ Windows
ไวน์เป็นวิธีเรียกใช้ซอฟต์แวร์ Windows บน Linux แต่ไม่จำเป็นต้องใช้ Windows Wine เป็นเลเยอร์ความเข้ากันได้ของ Windows แบบโอเพ่นซอร์สที่สามารถเรียกใช้โปรแกรม Windows ได้โดยตรงบนเดสก์ท็อป Linux โดยพื้นฐานแล้ว Wine พยายามนำ Windows กลับมาใช้ใหม่ให้เพียงพอตั้งแต่เริ่มต้น เพื่อให้สามารถเรียกใช้แอปพลิเคชัน Windows เหล่านั้นทั้งหมดโดยไม่จำเป็นต้องใช้ Windows จริงๆ
ภาพหน้าจอ
Ad
โอลลามา ไพธอน
DESCRIPTION
ollama-python คือ Python SDK แบบโอเพนซอร์สที่ห่อหุ้ม Ollama CLI ไว้ ช่วยให้สามารถโต้ตอบกับโมเดลภาษาท้องถิ่นขนาดใหญ่ (LLM) ที่ Ollama จัดการได้อย่างราบรื่น นักพัฒนาใช้ ollama-python เพื่อโหลดโมเดล ส่งพรอมต์ จัดการเซสชัน และสตรีมการตอบสนองโดยตรงจากโค้ด Python ollama-python ช่วยให้การผสานรวมโมเดลที่ใช้ Ollama เข้ากับแอปพลิเคชันเป็นเรื่องง่าย รองรับโหมดซิงโครนัสและสตรีมมิ่ง เครื่องมือนี้เหมาะอย่างยิ่งสำหรับผู้ที่สร้างแอปพลิเคชันที่ขับเคลื่อนด้วย AI พร้อมการปรับใช้โมเดลท้องถิ่น
คุณสมบัติ
- โหลดและเรียกใช้โมเดล Ollama จาก Python
- รองรับการจัดรูปแบบที่รวดเร็วและเอาต์พุตแบบสตรีมมิ่ง
- รายชื่อและจัดการ LLM ที่ติดตั้ง
- การจัดการเซสชันและหน่วยความจำการสนทนา
- จัดการข้อผิดพลาด CLI และการแยกวิเคราะห์เอาต์พุต
- การห่อการอ้างอิงแบบน้ำหนักเบา CLI ที่มีอยู่
ภาษาโปรแกรม
หลาม
หมวดหมู่
นี่คือแอปพลิเคชันที่สามารถดึงข้อมูลจาก https://sourceforge.net/projects/ollama-python.mirror/ ได้ แอปพลิเคชันนี้โฮสต์อยู่ใน OnWorks เพื่อให้ใช้งานออนไลน์ได้ง่ายที่สุดจากระบบปฏิบัติการฟรีของเรา