Sử dụng miễn phí API tương tự OpenAI bằng Groq

Sử dụng miễn phí API tương tự OpenAI bằng Groq

Những mẩu tin ngắn hàng ngày dành cho bạn
  • Hẳn là nhiều người ở đây đã nghe đến kiểu tấn công bảo mật Clickjacking rồi nhỉ. Kẻ tấn công thường nhúng một website (thường là mục tiêu) vào trong một iframe trên website của chúng, sau đó làm mờ hoặc ẩn nó đi rồi đặt vào vị trí các nút bấm trên web, ví dụ "Bấm vào để nhận quà". Đâu ai ngờ rằng phía trên nút bấm đó là một nút bấm khác trong iframe. Khá nguy hiểm!

    Nhưng trình duyệt đã có cách ngăn chặn kiểu tấn công này bằng các quy tắc như tiêu đề X-Frame-Options, frame-ancestors của CSP và SameSite: Lax/Strict của Cookies...

    Mới đây, đã xuất hiện thêm kiểu tấn công mới - "DoubleClickjacking" 😨. Đại ý là "hắn" lợi dụng hành động double click để lừa người dùng bấm vào một nút mà hắn muốn. Chi tiết hơn trong bài viết này: DoubleClickjacking: A New Era of UI Redressing.

    » Xem thêm
  • Mọi người đã nghe nói đến Jujutsu - jj - một dạng quản lý phiên bản cho mã nguồn (version control system) chưa? Có vẻ như nó đang nhận được nhiều sự quan tâm.

    Chờ xíu! Chẳng phải git đã quá tốt rồi sao? Thế thì chế ra thằng jj để làm gì nữa? Cũng hơi khó trả lời nhỉ? Mỗi công cụ sinh ra chắc chắn phải cải thiện hoặc khắc phục được nhược điểm của cái trước. Cho nên jj ắt hẳn phải làm được điều gì đó mà git chưa làm được nên mới nổi lên như vậy.

    Thật ra mình đã nghe nói đến jj từ vài tháng trước rồi, nhưng vào đọc thì toàn kiến thức cao siêu. Hoặc là đang mang nặng cái lối suy nghĩ của git vào trong đầu rồi nên chưa lĩnh hội ra được điều gì cả.

    Mình hay có kiểu cái gì đọc lần 1 mà không hiểu thì đọc tiếp lần 2, lần 2 không hiểu thì đọc tiếp lần 3... đến lần thứ n mà vẫn không hiểu thì bỏ. Cơ mà không phải là từ bỏ mà một thời gian sau đó quay lại đọc tiếp. Đến một lúc nào đó khả năng mình sẽ hiểu ra một ít vấn đề, thế mới tài 😆.

    Thì cái jj này có vẻ như nó đang mở ra được tính linh hoạt trong việc "cam kết" mã. Tưởng tượng bạn đang làm việc trên một dự án, đang ở nhánh này, muốn sang nhánh khác để sửa, nhưng mà lại đang viết dở ở nhánh này, thế là phải stash, rồi checkout, rồi commit, rồi merge hoặc rebase lại vào nhánh cũ... nhìn chung quá trình làm việc với git nghiêm ngặt đến mức cứng nhắc, cần nhiều thao tác để giải quyết một vấn đề, chưa kể cái cây commit (commit-tree) nữa thì ôi thôi, khỏi xem cho đỡ nhức mắt. Thế nên ông jj này đang làm cách nào đó để bạn khỏi cần phải quan tâm đến các nhánh luôn, sửa trực tiếp vào commit. Nghe ảo nhỉ 😂.

    Đấy mới lĩnh hội được đến đấy, hy vọng sau n lần đọc lại nữa mình sẽ viết được một bài chi tiết hơn về công cụ này.

    » Xem thêm
  • Gòi gòi tới công chiện gòi 🤤🤤🤤

    » Xem thêm

Vấn đề

Mấy nay bỗng nhiên trên các trang mạng xã hội của tôi xuất hiện dày đặc các tin tức về AI, về các mô hình ngôn ngữ lớn (LLMs). Chúng chủ yếu đề cập đến cách ứng dụng các mô hình ngôn ngữ trong công việc, tạo ra công cụ phục vụ cái này cái kia, và cả sự phát triển đáng ngạc nhiên của nó. Mỗi ngày thông tin cứ ào ào đến: AI đã làm được cái này, AI đã làm được cái kia... hú hồn 🫣, rồi chả mấy chốc mà AI chiếm hết công việc của loài người.

Điều đó khiến tôi dường như cũng bị cuốn hút vào cuộc chơi này. Không hẳn là "đú trend", mà vì AI bây giờ đang rất mạnh. Nhớ lại trước đây khi nhắc đến AI, đó là một cái gì rất khó tiếp cận. Các bài toán xoay xung quanh AI như xử lý ngôn ngữ tự nhiên, xử lý ảnh, phân loại... với hàng tá thuật toán phức tạp, đòi hỏi quá trình học tập và nghiên cứu không đơn hề đơn giản... Thì giờ đây, ai cũng có thể tiếp cận được lời giải chỉ bằng các mô hình ngôn ngữ lớn.

Và thế là giờ đây tôi tập trung vào AI nhiều hơn. Tôi đang nghiên cứu một vài giải pháp để tiến tới một ứng dụng tiếp theo trong sự nghiệp indie của mình. Không chắc là nó có thành công hay không nhưng rất đáng để thử vì đây cũng như một cách để học hỏi kinh nghiệm. Bây giờ chưa tiện nói ra mà chỉ có thể bật mí nó là một ứng dụng liên quan đến mạng xã hội 😄.

Thôi, quay lại nội dung chính!

Mặc dù Ollama - một công cụ hỗ trợ chạy rất nhiều mô hình ngôn ngữ chỉ bằng một dòng lệnh duy nhất mà tôi đã đề cập trong bài viết Sử dụng miễn phí mô hình ngôn ngữ lớn (LLM) tương thích ChatGPT API. Ollama là một giải pháp để thay thế việc trả tiền cho các dịch vụ tương tự OpenAI API. Nhưng Ollama không phải ai cũng dùng được do vì nó đòi hỏi một lượng tài nguyên máy tính nhất định, hay nói cách khác là bạn cần có một máy tính cấu hình cao hơn để chạy các mô hình có tham số lớn hơn.

Như tôi chẳng hạn, một chiếc Macbook không đến nỗi nào (Pro M2 😅) nhưng đành bó tay với các mô hình cỡ 70B tham số trở lên. Với các mô hình 8B, 13B thì chạy rất tốt nhưng nhiều khi mình cần mô hình mạnh mẽ hơn để thử nghiệm tính năng mới thì đành bất lực.

Thật may, trong một bài đăng trên mạng xã hội gần đây tôi đã phàn nàn về việc không biết dùng các mô hình "xịn" ở đâu thì được nhiều người gợi ý sử dụng Groq. Wow 😱!

Groq cung cấp API miễn phí từ các mô hình miễn phí. Sự khác biệt giữa Groq và Ollama đó là họ "host" các models mã nguồn mở và cho chúng ta sử dụng API miễn phí. Tất nhiên sẽ đi kèm với giới hạn về tốc độ cũng như lượng token sử dụng trong ngày. Nhưng các con số đang rất hào phóng.

Đây là danh sách các models mà Groq đang hỗ trợ Supported Models | Groq

Bạn cũng có thể gọi API để biết Groq đang mở những model nào. Tính năng này hữu ích trong trường hợp ứng dụng cần lựa chọn phiên bản của các models.

Trong tất cả models được hỗ trợ, nổi bật nhất là mô hình Llama 3.1 405B của Meta. Đây là model mới nhất của Meta với sức mạnh mà nhiều người đánh giá là ngang ngửa với gpt4. Nhưng điều đáng tiếc là do nhu cầu quá lớn nên Groq đã tạm thời tắt mô hình này, chưa có thời gian cụ thể mở lại cho người dùng.

Groq hỗ trợ API theo chuẩn của OpenAI nên rất dễ thay thế/tích hợp vào hệ thống đã có. Ví dụ một lệnh gọi API Chat completion.

import Groq from "groq-sdk";

const groq = new Groq({ apiKey: process.env.GROQ_API_KEY });

async function main() {
  const completion = await groq.chat.completions
    .create({
      messages: [
        {
          role: "user",
          content: "Explain the importance of fast language models",
        },
      ],
      model: "mixtral-8x7b-32768",
    })
    .then((chatCompletion) => {
      console.log(chatCompletion.choices[0]?.message?.content || "");
    });
}

main();

Rất giống với OpenAI phải không? Có thể thấy sự góp mặt của thư viện groq-sdk, nhưng nếu dùng thư viện openai thì vẫn được, chỉ cần thay thế baseURL lúc khởi tạo.

import OpenAI from "openai";

const openai = new OpenAI({
  apiKey: process.env.GROQ_API_KEY,
  baseURL: "https://api.groq.com/openai/v1",
});

Dưới đây là bảng giới hạn tốc độ của các models:

Limits

Ví dụ nếu dùng llama-3.1-70b-versatile thì bị giới hạn 100 lần gọi mỗi phút, hơn 14k lần gọi trong ngày với 1 triệu token...

Một điều ấn tượng là tốc độ phản hồi của Groq rất nhanh. Theo tìm hiểu thì họ dùng "Công nghệ suy luận AI Groq LPU™" - là một con chip thế hệ mới, giúp tăng tốc xử lý các tác vụ AI dựa trên ngôn ngữ. Có thể lý do cho sự miễn phí là để quảng bá công nghệ mới này.

Bạn còn nhớ NextChat chứ, hãy thử tích hợp Groq với NextChat.

Đầu tiên tạo một API keys ở trong Console API Keys

Sau đó vào NextChat > Cài đặt, thiết lập lại URL, API Key, đồng thời thêm vào một số model mới.

NextChat Settings

Mô hình llama-3.1-70b-versatile chỉ xếp sau 405B nên chắc nhiều người dùng quá, thi thoảng gọi API bị lỗi phải thử lại 1-2 lần thì mọi thứ lại hoạt động bình thường.

Cao cấp
Hello

Tôi & khao khát "chơi chữ"

Bạn đã thử viết? Và rồi thất bại hoặc chưa ưng ý? Tại 2coffee.dev chúng tôi đã có quãng thời gian chật vật với công việc viết. Đừng nản chí, vì giờ đây chúng tôi đã có cách giúp bạn. Hãy bấm vào để trở thành hội viên ngay!

Bạn đã thử viết? Và rồi thất bại hoặc chưa ưng ý? Tại 2coffee.dev chúng tôi đã có quãng thời gian chật vật với công việc viết. Đừng nản chí, vì giờ đây chúng tôi đã có cách giúp bạn. Hãy bấm vào để trở thành hội viên ngay!

Xem tất cả

Đăng ký nhận thông báo bài viết mới

hoặc
* Bản tin tổng hợp được gửi mỗi 1-2 tuần, huỷ bất cứ lúc nào.

Bình luận (0)

Nội dung bình luận...
Bấm hoặc cuộn mạnh để sang bài mới