Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
Questa guida mostra come eseguire la migrazione del codice Python dall'API PaLM a
l'API Gemini. È possibile generare conversazioni di testo e in più passaggi (chat)
con Gemini, ma assicurati di controllare le tue risposte poiché potrebbero essere
rispetto agli output PaLM.
Riepilogo delle differenze delle API
I nomi dei metodi sono cambiati. Invece di avere metodi separati per generare
SMS e chat, esiste un solo metodo generate_content che consente di eseguire entrambe le operazioni.
Chat dispone di un metodo di supporto start_chat che semplifica la chat.
Invece delle funzioni autonome, le nuove API sono metodi di
GenerativeModel corso.
La struttura della risposta dell'output è stata modificata.
Le categorie delle impostazioni di sicurezza sono cambiate. Consulta le
impostazioni di sicurezza per maggiori dettagli.
Generazione testo: base
PaLM
API
pipinstallgoogle-generativeaiimportgoogle.generativeaiaspalmimportospalm.configure(api_key=os.environ['API_KEY'])response=palm.generate_text(prompt="The opposite of hot is")print(response.result)# 'cold.'
pipinstallgoogle-generativeaiimportgoogle.generativeaiasgenaiimportosgenai.configure(api_key=os.environ['API_KEY'])model=genai.GenerativeModel(model_name='gemini-pro')response=model.generate_content('The opposite of hot is')print(response.text)# The opposite of hot is cold.'
Generazione del testo: parametri facoltativi
PaLM
API
pipinstallgoogle-generativeaiimportgoogle.generativeaiaspalmimportospalm.configure(api_key=os.environ['API_KEY'])prompt="""You are an expert at solving wordproblems.Solve the following problem:I have three houses, each with threecats. Each cat owns 4 mittens, and a hat.Each mitten was knit from 7m of yarn,each hat from 4m. How much yarn wasneeded to make all the items?Think about it step by step, and showyour work."""completion=palm.generate_text(model=model,prompt=prompt,temperature=0,# The maximum length of responsemax_output_tokens=800,)print(completion.result)
pipinstallgoogle-generativeaiimportgoogle.generativeaiasgenaiimportosgenai.configure(api_key=os.environ['API_KEY'])model=genai.GenerativeModel(model_name='gemini-pro')prompt="""You are an expert at solving wordproblems.Solve the following problem:I have three houses, each with threecats. Each cat owns 4 mittens, and a hat.Each mitten was knit from 7m of yarn,each hat from 4m. How much yarn wasneeded to make all the items?Think about it step by step, and showyour work."""completion=model.generate_content(prompt,generation_config={'temperature':0,'max_output_tokens':800})print(completion.text)
Chat: livello base
PaLM
API
pipinstallgoogle-generativeaiimportgoogle.generativeaiaspalmimportospalm.configure(api_key=os.environ['API_KEY'])chat=palm.chat(messages=["Hello."])print(chat.last)# 'Hello! What can I help you with?'chat=chat.reply("Just chillin'")print(chat.last)# 'That's great! ...'
chat.messages[{'author':'0','content':'Hello'},{'author':'1','content':'Hello! How can I help you today?'},{'author':'0','content':"Just chillin'"},{'author':'1','content':"That's great! I'm glad you're able to relax andtakesometimeforyourself.Whatareyouuptotoday?"}]
chat.history[parts{text:"Hello."}role:"user",parts{text:"Greetings! How may I assist you today?"}role:"assistant",parts{text:"Just chillin\'"}role:"user",parts{text:"That\'s great! I\'m glad to hearyou\'re having a relaxing time.MayIofferyouanyvirtualentertainmentorassistance?Icanprovideyouwithmusicrecommendations,playgameswithyou,orengageinafriendlyconversation.\n\nAdditionally,I\'m capable of generatingcreativecontent,suchaspoems,stories,orevensonglyrics.Ifyou\'d like, I can surprise you withsomethingunique.\n\nJustletmeknowwhatyou\'re in the mood for,andI\'ll be happy to oblige."}role:"assistant"]
Chat: Temperatura
PaLM
API
# Setting temperature=1 usually produces more zany responses!chat=palm.chat(messages="What should I eat for dinner tonight? List a few options",temperature=1)chat.last'Here are a few ideas ...
model=genai.GenerativeModel(model_name='gemini-pro')chat=model.start_chat()# Setting temperature=1 usually produces more zany responses!response=chat.send_message("What should I eat for dinner tonight? List a few options",generation_config={'temperature':1.0})print(response.text)'1. Grilled Salmon with Roasted Vegetables: ...'
Passaggi successivi
Per ulteriori dettagli, consulta la panoramica dell'API Gemini sulla
i modelli e le funzionalità più recenti.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2024-08-23 UTC."],[],[]]