Toolkit AI Generatif yang Bertanggung Jawab
Alat dan panduan untuk mendesain, membuat, dan mengevaluasi model AI terbuka secara bertanggung jawab.
Desain aplikasi yang bertanggung jawab
Tentukan aturan untuk perilaku model, buat aplikasi yang aman dan akuntabel, serta jaga komunikasi yang transparan dengan pengguna.
Penyelarasan keselamatan
Temukan teknik dan panduan proses debug perintah untuk fine-tuning dan RLHF untuk menyelaraskan model AI dengan kebijakan keamanan.
Evaluasi model
Temukan panduan dan data untuk melakukan evaluasi model yang andal untuk keamanan, keadilan, dan faktualitas dengan LLM Comparator.
Pengaman
Deploy pengklasifikasi keselamatan, menggunakan solusi siap pakai atau buat sendiri dengan tutorial langkah demi langkah.
Mendesain pendekatan yang bertanggung jawab
Identifikasi potensi risiko aplikasi Anda secara proaktif dan tentukan pendekatan tingkat sistem untuk membangun aplikasi yang aman dan bertanggung jawab bagi pengguna.
Mulai
Menentukan kebijakan tingkat sistem
Tentukan jenis konten yang harus dan tidak boleh dihasilkan oleh aplikasi Anda.
Mendesain untuk keamanan
Tentukan pendekatan Anda secara keseluruhan untuk menerapkan teknik mitigasi risiko, dengan mempertimbangkan kompromi teknis dan bisnis.
Bersikaplah transparan
Sampaikan pendekatan Anda dengan artefak seperti kartu model.
Sistem AI yang aman
Pertimbangkan risiko keamanan khusus AI dan metode perbaikan yang ditandai dalam Framework AI Aman (SAIF).
Menyelaraskan model
Sesuaikan model Anda dengan kebijakan keamanan spesifik menggunakan teknik perintah dan penyesuaian.
Mulai
Membuat perintah yang lebih aman dan andal
Gunakan kecanggihan LLM untuk membantu membuat template perintah yang lebih aman dengan library Model Alignment.
Menyesuaikan model untuk keamanan
Kontrol perilaku model dengan menyesuaikan model Anda agar selaras dengan kebijakan keamanan dan konten Anda.
Menyelidiki perintah model
Buat perintah yang aman dan bermanfaat melalui peningkatan iteratif dengan Learning Interpretability Tool (LIT).
Mengevaluasi model Anda
Evaluasi risiko model terkait keamanan, keadilan, dan akurasi faktual menggunakan panduan dan alat kami.
Mulai
Pembanding LLM
Melakukan evaluasi berdampingan dengan LLM Comparator untuk menilai secara kualitatif perbedaan respons antara model, perintah yang berbeda untuk model yang sama, atau bahkan penyesuaian model yang berbeda
Pedoman evaluasi model
Pelajari praktik terbaik penggunaan tim merah dan evaluasi model Anda berdasarkan tolok ukur akademik untuk menilai bahaya seputar keamanan, keadilan, dan faktualitas.
Melindungi dengan pengamanan
Filter input dan output aplikasi Anda, serta lindungi pengguna dari hasil yang tidak diinginkan.
Mulai
Teks SynthID
Alat untuk menambahkan watermark dan mendeteksi teks yang dihasilkan oleh model Anda.
ShieldGemma
Serangkaian pengklasifikasi keamanan konten, yang dibuat berdasarkan Gemma 2, tersedia dalam tiga ukuran: 2B, 9B, 27B.
Pengklasifikasi yang tangkas
Buat pengklasifikasi keamanan untuk kebijakan spesifik Anda menggunakan parameter efficient tuning (PET) dengan data pelatihan yang relatif sedikit
Memeriksa Keamanan AI
Pastikan kepatuhan keamanan AI terhadap kebijakan konten Anda dengan API dan dasbor pemantauan.
Layanan moderasi teks
Deteksi daftar atribut keamanan, termasuk berbagai kategori dan topik yang berpotensi berbahaya yang mungkin dianggap sensitif dengan Google Cloud Natural Language API ini yang tersedia secara gratis di bawah batas penggunaan tertentu.
Perspective API
Identifikasi komentar "negatif" dengan Google Jigsaw API gratis ini untuk mengurangi toksisitas online dan memastikan dialog yang sehat.