Share to:

 

Hugging Face

Hugging Face, Inc.
Tipe Privat
Sektor Kecerdasan buatan, pembelajaran mesin, pengembangan perangkat lunak
Berdiri 2016
Kantor pusat ,
Amerika Serikat
Tokoh kunci
  • Clément Delangue (Direktur Utama)
  • Julien Chaumond (Direktur Teknologi)
  • Thomas Wolf (Direktur Keamanan)
Produk Transformer, kumpulan data
Pendapatan 15,000,000 (2022) Edit this on Wikidata
Jumlah pegawai
160 (2023) Edit this on Wikidata
Situs resmi huggingface.co

Hugging Face, Inc. adalah sebuah perusahaan Amerika Serikat yang mengembangkan perkakas untuk mengembangkan aplikasi menggunakan pembelajaran mesin. Perusahaan ini membangun sebuah perpustakaan transformer untuk aplikasi pengolahan bahasa alami dan sebuah platform yang digunakan oleh pengguna untuk berbagi model pembelajaran mesin dan kumpulan data.

Sejarah

Perusahaan ini didirikan pada tahun 2016 oleh pengusaha asal Prancis Clément Delangue, Julien Chaumond, dan Thomas Wolf sebagai sebuah perusahaan yang mengembangkan aplikasi chatbot untuk remaja.[1] Setelah membuka kode model dibalik chatbot tersebut, perusahaan beralih untuk menjadi sebuah platform untuk pembelajaran mesin.

Pada Maret 2021, Hugging Face berhasil menggalang dana sebesar US$40 juta dalam sebuah pendanaan Seri B.[2]

Pada 28 April 2021, perusahaan meluncurkan BigScience Research Workshop dengan kolaborasi bersama sejumlah kelompok penelitian untuk merilis sebuah model bahasa besar.[3] Pada 2022, kolaborasi ini menghasilkan BLOOM, sebuah model bahasa besar dengan 176 miliar parameter.[4]

Pada Februari 2023, perusahaan mengumumkan kemitraan dengan Amazon Web Services (AWS) yang memungkinkan produk Hugging Face tersedia untuk konsumen AWS yang dapat digunakan sebagai fondasi untuk membangun aplikasi. Perusahaan juga mengatakan bahwa generasi mendatang dari BLOOM akan berjalan di Trainium, sebuah chip pembelajaran mesin yang dibuat oleh AWS.[5][6]

Layanan dan teknologi

Transformers Library

Transformer Library adalah sebuah paket untuk Python yang terdiri dari implementasi sumber terbuka untuk model transformer untuk pemrosesan teks, gambar, dan audio. Paket ini mendukung perangkat lunak pembelajaran mesin seperti PyTorch, TensorFlow dan JAX dan implementasi model populer seperti BERT dan GPT-2.[7] Paket ini awalnya dikenal sebagai "pytorch-pretrained-bert"[8] lalu berganti nama menjadi "pytorch-transformers" dan kini "transformers."

Hugging Face Hub

Hugging Face Hub adalah sebuah platform (layanan web) untuk menghosting:[9]

  • Repositori kode berbasis Git, dengan fitur mirip GitHub, meliputi diskusi dan permintaan tarik untuk proyek.
  • model, juga dengan kontrol versi berbasis Git;
  • kumpulan data, berupa teks, gambar, dan audio;
  • aplikasi web ("spaces" dan "widgets"), ditujukan untuk demonstrasi aplikasi pembelajaran mesin berskala kecil.

Perpustakaan lainnya

Disamping Transformers dan Hugging Face Hub, ekosistem Hugging Face juga menyediakan perpustakaan untuk tugas lainnya, seperti pengolahan data ("Datasets"), evaluasi model ("Evaluate"), simulasi ("Simulate"), dan demonstrasi pembelajaran mesin ("Gradio").[10]

Referensi

  1. ^ "Hugging Face wants to become your artificial BFF". TechCrunch (dalam bahasa Inggris). 9 March 2017. Diakses tanggal 2022-08-20. 
  2. ^ "Hugging Face raises $40 million for its natural language processing library". 11 March 2021. 
  3. ^ "Inside BigScience, the quest to build a powerful open language model". 10 January 2022. 
  4. ^ "BLOOM". bigscience.huggingface.co. Diakses tanggal 2022-08-20. 
  5. ^ Bass, Dina (2023-02-21). "Amazon's Cloud Unit Partners With Startup Hugging Face as AI Deals Heat Up". Bloomberg News. 
  6. ^ Nellis, Stephen (2023-02-21). "Amazon Web Services pairs with Hugging Face to target AI developers". Reuters. 
  7. ^ "🤗 Transformers". huggingface.co. Diakses tanggal 2022-08-20. 
  8. ^ "First release". Github. Nov 17, 2018. Diakses tanggal 28 March 2023. 
  9. ^ "Hugging Face Hub documentation". huggingface.co. Diakses tanggal 2022-08-20. 
  10. ^ "Hugging Face - Documentation". huggingface.co. Diakses tanggal 2023-02-18. 
Kembali kehalaman sebelumnya