Sử dụng miễn phí API tương tự OpenAI bằng Groq

Sử dụng miễn phí API tương tự OpenAI bằng Groq

Những mẩu tin ngắn hàng ngày dành cho bạn
  • Quá ghê ghớm, Codeium - vốn được biết đến như một đối thủ của Github Copilot, khi nó cho người dùng dùng miễn phí không giới hạn. Mới đây họ giới thiệu thêm Windsurf Editor - không chỉ còn là VSCode Extentions nữa mà là một trình Editor luôn - cạnh tranh trực tiếp với Cursor. Và điểm chính là nó... hoàn toàn miễn phí 🫣.

    » Xem thêm
  • Tin vui đầu này, Github Copilot đã chính thức có bản Free cho tất cả mọi người.

    Github Copilot là một trợ lý AI code cùng chúng ta, nó có thể tự động hoàn thành mã, trò chuyện hoặc sửa lỗi. Hiện đang hỗ trợ nhiều trình soạn thảo, IDE phổ biến như VSCode, JetBrains, XCode...

    Phiên bản miễn phí đang bị giới hạn 2000 Suggestions, và khoảng 50 requests đến tính năng Chat hàng tháng. Sau đó bạn có thể nâng cấp lên các phiên bản cao cấp hơn với giá từ 10$.

    Theo đánh giá của mình thì Copilot rất tốt và xứng đáng trong tầm giá, đang dùng hàng ngày 😄

    » Xem thêm
  • Có một nghiên cứu khá thú vị mà mình rút ra được đó là: "Người dùng chẳng bao giờ chịu đọc những thứ mà họ không muốn". (Khẳng định chắc nịch thế chứ, đa số thì đúng hơn 😅).

    Không tin á, mình dám cá chắc là bạn đã không ít lần gặp trường hợp nhấn vào một nút gì đó liên tục mà nó không phản hồi, nhưng thật ra là nó có báo một dòng lỗi ở đâu đó. Hoặc nhập xong xuôi các thứ rồi đến lúc nhấn nút gửi thì không gửi được. Bực mình mới kéo lên trên hoặc xuống dưới đọc thì à... hoá ra là phải làm thêm bước này bước kia đúng không?

    Cũng chẳng đâu xa ngay như blog của mình đây. Nghĩ là mọi người ai mà quan tâm đến blog sẽ nhấn vào nút "Cho phép bật thông báo" ở ngay phía dưới bài viết. Nhưng sự thật là chẳng ai thèm bấm cả. Có phải là họ không muốn nhận không? Chắc là không! Mình nghĩ do họ không đọc đến dòng đó thôi.

    Bằng chứng là chỉ khi cho hiện một thông báo chiếm một nửa cái màn hình, hoặc bất ngờ hiện ra để gây sự chú ý thì họ mới thật sự đọc và dĩ nhiên thu hút thêm vài người đăng ký - điều mà trước đó chẳng bao giờ đạt được.

    » Xem thêm

Vấn đề

Mấy nay bỗng nhiên trên các trang mạng xã hội của tôi xuất hiện dày đặc các tin tức về AI, về các mô hình ngôn ngữ lớn (LLMs). Chúng chủ yếu đề cập đến cách ứng dụng các mô hình ngôn ngữ trong công việc, tạo ra công cụ phục vụ cái này cái kia, và cả sự phát triển đáng ngạc nhiên của nó. Mỗi ngày thông tin cứ ào ào đến: AI đã làm được cái này, AI đã làm được cái kia... hú hồn 🫣, rồi chả mấy chốc mà AI chiếm hết công việc của loài người.

Điều đó khiến tôi dường như cũng bị cuốn hút vào cuộc chơi này. Không hẳn là "đú trend", mà vì AI bây giờ đang rất mạnh. Nhớ lại trước đây khi nhắc đến AI, đó là một cái gì rất khó tiếp cận. Các bài toán xoay xung quanh AI như xử lý ngôn ngữ tự nhiên, xử lý ảnh, phân loại... với hàng tá thuật toán phức tạp, đòi hỏi quá trình học tập và nghiên cứu không đơn hề đơn giản... Thì giờ đây, ai cũng có thể tiếp cận được lời giải chỉ bằng các mô hình ngôn ngữ lớn.

Và thế là giờ đây tôi tập trung vào AI nhiều hơn. Tôi đang nghiên cứu một vài giải pháp để tiến tới một ứng dụng tiếp theo trong sự nghiệp indie của mình. Không chắc là nó có thành công hay không nhưng rất đáng để thử vì đây cũng như một cách để học hỏi kinh nghiệm. Bây giờ chưa tiện nói ra mà chỉ có thể bật mí nó là một ứng dụng liên quan đến mạng xã hội 😄.

Thôi, quay lại nội dung chính!

Mặc dù Ollama - một công cụ hỗ trợ chạy rất nhiều mô hình ngôn ngữ chỉ bằng một dòng lệnh duy nhất mà tôi đã đề cập trong bài viết Sử dụng miễn phí mô hình ngôn ngữ lớn (LLM) tương thích ChatGPT API. Ollama là một giải pháp để thay thế việc trả tiền cho các dịch vụ tương tự OpenAI API. Nhưng Ollama không phải ai cũng dùng được do vì nó đòi hỏi một lượng tài nguyên máy tính nhất định, hay nói cách khác là bạn cần có một máy tính cấu hình cao hơn để chạy các mô hình có tham số lớn hơn.

Như tôi chẳng hạn, một chiếc Macbook không đến nỗi nào (Pro M2 😅) nhưng đành bó tay với các mô hình cỡ 70B tham số trở lên. Với các mô hình 8B, 13B thì chạy rất tốt nhưng nhiều khi mình cần mô hình mạnh mẽ hơn để thử nghiệm tính năng mới thì đành bất lực.

Thật may, trong một bài đăng trên mạng xã hội gần đây tôi đã phàn nàn về việc không biết dùng các mô hình "xịn" ở đâu thì được nhiều người gợi ý sử dụng Groq. Wow 😱!

Groq cung cấp API miễn phí từ các mô hình miễn phí. Sự khác biệt giữa Groq và Ollama đó là họ "host" các models mã nguồn mở và cho chúng ta sử dụng API miễn phí. Tất nhiên sẽ đi kèm với giới hạn về tốc độ cũng như lượng token sử dụng trong ngày. Nhưng các con số đang rất hào phóng.

Đây là danh sách các models mà Groq đang hỗ trợ Supported Models | Groq

Bạn cũng có thể gọi API để biết Groq đang mở những model nào. Tính năng này hữu ích trong trường hợp ứng dụng cần lựa chọn phiên bản của các models.

Trong tất cả models được hỗ trợ, nổi bật nhất là mô hình Llama 3.1 405B của Meta. Đây là model mới nhất của Meta với sức mạnh mà nhiều người đánh giá là ngang ngửa với gpt4. Nhưng điều đáng tiếc là do nhu cầu quá lớn nên Groq đã tạm thời tắt mô hình này, chưa có thời gian cụ thể mở lại cho người dùng.

Groq hỗ trợ API theo chuẩn của OpenAI nên rất dễ thay thế/tích hợp vào hệ thống đã có. Ví dụ một lệnh gọi API Chat completion.

import Groq from "groq-sdk";

const groq = new Groq({ apiKey: process.env.GROQ_API_KEY });

async function main() {
  const completion = await groq.chat.completions
    .create({
      messages: [
        {
          role: "user",
          content: "Explain the importance of fast language models",
        },
      ],
      model: "mixtral-8x7b-32768",
    })
    .then((chatCompletion) => {
      console.log(chatCompletion.choices[0]?.message?.content || "");
    });
}

main();

Rất giống với OpenAI phải không? Có thể thấy sự góp mặt của thư viện groq-sdk, nhưng nếu dùng thư viện openai thì vẫn được, chỉ cần thay thế baseURL lúc khởi tạo.

import OpenAI from "openai";

const openai = new OpenAI({
  apiKey: process.env.GROQ_API_KEY,
  baseURL: "https://api.groq.com/openai/v1",
});

Dưới đây là bảng giới hạn tốc độ của các models:

Limits

Ví dụ nếu dùng llama-3.1-70b-versatile thì bị giới hạn 100 lần gọi mỗi phút, hơn 14k lần gọi trong ngày với 1 triệu token...

Một điều ấn tượng là tốc độ phản hồi của Groq rất nhanh. Theo tìm hiểu thì họ dùng "Công nghệ suy luận AI Groq LPU™" - là một con chip thế hệ mới, giúp tăng tốc xử lý các tác vụ AI dựa trên ngôn ngữ. Có thể lý do cho sự miễn phí là để quảng bá công nghệ mới này.

Bạn còn nhớ NextChat chứ, hãy thử tích hợp Groq với NextChat.

Đầu tiên tạo một API keys ở trong Console API Keys

Sau đó vào NextChat > Cài đặt, thiết lập lại URL, API Key, đồng thời thêm vào một số model mới.

NextChat Settings

Mô hình llama-3.1-70b-versatile chỉ xếp sau 405B nên chắc nhiều người dùng quá, thi thoảng gọi API bị lỗi phải thử lại 1-2 lần thì mọi thứ lại hoạt động bình thường.

Cao cấp
Hello

Tôi & khao khát "chơi chữ"

Bạn đã thử viết? Và rồi thất bại hoặc chưa ưng ý? Tại 2coffee.dev chúng tôi đã có quãng thời gian chật vật với công việc viết. Đừng nản chí, vì giờ đây chúng tôi đã có cách giúp bạn. Hãy bấm vào để trở thành hội viên ngay!

Bạn đã thử viết? Và rồi thất bại hoặc chưa ưng ý? Tại 2coffee.dev chúng tôi đã có quãng thời gian chật vật với công việc viết. Đừng nản chí, vì giờ đây chúng tôi đã có cách giúp bạn. Hãy bấm vào để trở thành hội viên ngay!

Xem tất cả

Đăng ký nhận thông báo bài viết mới

hoặc
* Bản tin tổng hợp được gửi mỗi 1-2 tuần, huỷ bất cứ lúc nào.
Author

Xin chào, tôi tên là Hoài - một anh Dev kể chuyện bằng cách viết ✍️ và làm sản phẩm 🚀. Với nhiều năm kinh nghiệm lập trình, tôi đã đóng góp một phần công sức cho nhiều sản phẩm mang lại giá trị cho người dùng tại nơi đang làm việc, cũng như cho chính bản thân. Sở thích của tôi là đọc, viết, nghiên cứu... Tôi tạo ra trang Blog này với sứ mệnh mang đến những bài viết chất lượng cho độc giả của 2coffee.dev.Hãy theo dõi tôi qua các kênh LinkedIn, Facebook, Instagram, Telegram.

Bạn thấy bài viết này có ích?
Không

Bình luận (0)

Nội dung bình luận...