Diskon 50% pada AI? Openai meluncurkan “trik” baru!

## Diskon 50% dari faktur? Openai meluncurkan “trik” baru!

Openai baru saja meluncurkan Flex Processing, API baru yang menjanjikan untuk mengurangi biaya menggunakan model AI menjadi 50%! Ini adalah opsi penghematan yang signifikan, terutama berguna untuk tugas tanpa waktu respons instan.

Untuk bersaing secara adil dengan “besar” seperti Google, Openai telah meluncurkan “kartu truf” ini. Pemrosesan Flex memungkinkan pengguna untuk mengakses model O3 dan O4-Mini dengan harga yang jauh lebih murah daripada sebelumnya. Namun, perlu dicatat bahwa fitur ini dirancang khusus untuk tugas AI prioritas rendah, menerima waktu respons yang lebih lambat. Ini berarti bahwa jika Anda membutuhkan hasil yang cepat, pemrosesan fleksibel bukanlah pilihan yang tepat.

Dengan diskon 50%, Openai membuka peluang untuk mendekati siapa lebih banyak pengguna, terutama mereka yang bekerja dengan proyek dengan anggaran atau tugas terbatas yang tidak memerlukan waktu nyata. Namun, pengguna perlu mempertimbangkan dengan cermat biaya dan waktu tunggu untuk memilih opsi optimal. Peluncuran pemrosesan fleksibel menunjukkan bahwa kompetisi di lapangan semakin sengit, dan pengguna akan menjadi orang yang paling menguntungkan dari balapan ini.

#Openai #flexprocessing #ai

Openai memperkenalkan pemrosesan fleksibel, API baru saja mengurangi 50% biaya, mendukung model O3 dan O4-Mini, menargetkan tugas prioritas rendah dengan waktu umpan balik yang lambat.

Untuk meningkatkan daya saing dengan saingan seperti Google, OpenAI baru saja memperkenalkan pemrosesan Flex – opsi API baru memungkinkan pengguna untuk mengakses model AI dengan biaya yang lebih rendah, dengan imbalan waktu respons yang lebih lambat dan kemampuan untuk terganggu dalam beberapa kasus.

Pemrosesan Flex saat ini sedang dalam tahap beta publik dan berlaku untuk dua model inferensi yang baru diluncurkan, O3 dan O4-Mini. Menurut OpenAI, opsi ini menargetkan tugas prioritas rendah, tidak memerlukan pemrosesan segera seperti evaluasi model, pengayaan data atau penanganan asinkron.

Dalam hal harga, Flex membantu pengguna menghemat 50% dari biaya dibandingkan dengan akses standar. Secara khusus:

  • Dengan model O3: 5 USD untuk setiap jutaan token input dan 20 USD untuk setiap jutaan token output (dibandingkan dengan standar $ 10 dan 40 USD).
  • Dengan O4-Mini: $ 0,55 per juta token input dan output token US $ 2,20 per juta (turun dari $ 1,10 dan 4,40 USD).

Pengenalan pemrosesan fleksibel terjadi dalam konteks biaya operasi model AI canggih yang terus meningkat, sementara saingan seperti Google mempromosikan strategi model berbakti rendah. Baru -baru ini, Google telah mengumumkan Gemini 2.5 Flash – model penalaran yang ringan, menghemat sumber daya tetapi masih memiliki kinerja yang mengesankan, bahkan melampaui Deepseek R1 dalam beberapa artikel benchmark.

Menurut konten email pemberitahuan kepada pelanggan, Openai juga mengatakan bahwa pengembang Tier 1-3 (diklasifikasikan berdasarkan tingkat pengeluaran) perlu menyelesaikan proses verifikasi identitas baru untuk memiliki akses O3. Beberapa fitur seperti ringkasan penalaran dan streaming API hanya tersedia setelah verifikasi.

Openai menegaskan bahwa penerapan verifikasi identitas untuk mencegah penyalahgunaan dan pelanggaran kebijakan layanan, terutama dalam konteks model yang semakin terintegrasi ke dalam aplikasi yang cenderung menyebabkan pengaruh besar.

Openai memperkenalkan pemrosesan fleksibel, API baru saja mengurangi 50% biaya, mendukung model O3 dan O4-Mini, menargetkan tugas prioritas rendah dengan waktu umpan balik yang lambat.

Untuk meningkatkan daya saing dengan saingan seperti Google, OpenAI baru saja memperkenalkan pemrosesan Flex – opsi API baru memungkinkan pengguna untuk mengakses model AI dengan biaya yang lebih rendah, dengan imbalan waktu respons yang lebih lambat dan kemampuan untuk terganggu dalam beberapa kasus.

Pemrosesan Flex saat ini sedang dalam tahap beta publik dan berlaku untuk dua model inferensi yang baru diluncurkan, O3 dan O4-Mini. Menurut OpenAI, opsi ini menargetkan tugas prioritas rendah, tidak memerlukan pemrosesan segera seperti evaluasi model, pengayaan data atau penanganan asinkron.

Dalam hal harga, Flex membantu pengguna menghemat 50% dari biaya dibandingkan dengan akses standar. Secara khusus:

  • Dengan model O3: 5 USD untuk setiap jutaan token input dan 20 USD untuk setiap jutaan token output (dibandingkan dengan standar $ 10 dan 40 USD).
  • Dengan O4-Mini: $ 0,55 per juta token input dan output token US $ 2,20 per juta (turun dari $ 1,10 dan 4,40 USD).

Pengenalan pemrosesan fleksibel terjadi dalam konteks biaya operasi model AI canggih yang terus meningkat, sementara saingan seperti Google mempromosikan strategi model berbakti rendah. Baru -baru ini, Google telah mengumumkan Gemini 2.5 Flash – model penalaran yang ringan, menghemat sumber daya tetapi masih memiliki kinerja yang mengesankan, bahkan melampaui Deepseek R1 dalam beberapa artikel benchmark.

Menurut konten email pemberitahuan kepada pelanggan, Openai juga mengatakan bahwa pengembang Tier 1-3 (diklasifikasikan berdasarkan tingkat pengeluaran) perlu menyelesaikan proses verifikasi identitas baru untuk memiliki akses O3. Beberapa fitur seperti ringkasan penalaran dan streaming API hanya tersedia setelah verifikasi.

Openai menegaskan bahwa penerapan verifikasi identitas untuk mencegah penyalahgunaan dan pelanggaran kebijakan layanan, terutama dalam konteks model yang semakin terintegrasi ke dalam aplikasi yang cenderung menyebabkan pengaruh besar.

Openai memperkenalkan pemrosesan fleksibel, API baru saja mengurangi 50% biaya, mendukung model O3 dan O4-Mini, menargetkan tugas prioritas rendah dengan waktu umpan balik yang lambat.

Untuk meningkatkan daya saing dengan saingan seperti Google, OpenAI baru saja memperkenalkan pemrosesan Flex – opsi API baru memungkinkan pengguna untuk mengakses model AI dengan biaya yang lebih rendah, dengan imbalan waktu respons yang lebih lambat dan kemampuan untuk terganggu dalam beberapa kasus.

Pemrosesan Flex saat ini sedang dalam tahap beta publik dan berlaku untuk dua model inferensi yang baru diluncurkan, O3 dan O4-Mini. Menurut OpenAI, opsi ini menargetkan tugas prioritas rendah, tidak memerlukan pemrosesan segera seperti evaluasi model, pengayaan data atau penanganan asinkron.

Dalam hal harga, Flex membantu pengguna menghemat 50% dari biaya dibandingkan dengan akses standar. Secara khusus:

  • Dengan model O3: 5 USD untuk setiap jutaan token input dan 20 USD untuk setiap jutaan token output (dibandingkan dengan standar $ 10 dan 40 USD).
  • Dengan O4-Mini: $ 0,55 per juta token input dan output token US $ 2,20 per juta (turun dari $ 1,10 dan 4,40 USD).

Pengenalan pemrosesan fleksibel terjadi dalam konteks biaya operasi model AI canggih yang terus meningkat, sementara saingan seperti Google mempromosikan strategi model berbakti rendah. Baru -baru ini, Google telah mengumumkan Gemini 2.5 Flash – model penalaran yang ringan, menghemat sumber daya tetapi masih memiliki kinerja yang mengesankan, bahkan melampaui Deepseek R1 dalam beberapa artikel benchmark.

Menurut konten email pemberitahuan kepada pelanggan, Openai juga mengatakan bahwa pengembang Tier 1-3 (diklasifikasikan berdasarkan tingkat pengeluaran) perlu menyelesaikan proses verifikasi identitas baru untuk memiliki akses O3. Beberapa fitur seperti ringkasan penalaran dan streaming API hanya tersedia setelah verifikasi.

Openai menegaskan bahwa penerapan verifikasi identitas untuk mencegah penyalahgunaan dan pelanggaran kebijakan layanan, terutama dalam konteks model yang semakin terintegrasi ke dalam aplikasi yang cenderung menyebabkan pengaruh besar.


Eksplorasi konten lain dari Heart To Heart

Berlangganan untuk dapatkan pos terbaru lewat email.

Tinggalkan Balasan

Eksplorasi konten lain dari Heart To Heart

Langganan sekarang agar bisa terus membaca dan mendapatkan akses ke semua arsip.

Lanjutkan membaca