X

seguici su Facebook

Google lancia un nuovo strumento per gli sviluppatori software

Yesterday 17:14
Google lancia un nuovo strumento per gli sviluppatori software

Google ha annunciato il lancio di un nuovo strumento open source chiamato Gemini CLI, specificamente progettato per funzionare tramite l'interfaccia a riga di comando (CLI), con l'obiettivo di fornire agli sviluppatori un assistente intelligente in grado di gestire attività di programmazione complesse utilizzando il linguaggio naturale.

Lo strumento consente agli utenti di analizzare il codice, eseguire il debug degli errori, suggerire nuove funzionalità ed eseguire comandi diretti integrandosi con l'ambiente locale dello sviluppatore e collegandolo a modelli Gemini avanzati. Questa mossa rappresenta un nuovo tentativo da parte di Google di competere con soluzioni note come Codex CLI di OpenAI e Cloud Code di Anthropic, che hanno riscosso un'ampia popolarità tra gli sviluppatori.

Secondo un rapporto di TechCrunch, Gemini CLI fa parte di un ecosistema più ampio che include strumenti come Gemini Code Assist e l'assistente asincrono Jules. Questa iniziativa rafforza la fiducia di Google nei modelli Gemini, soprattutto dopo il rilascio di Gemini 2.5 Pro ad aprile, che ha contribuito a una maggiore adozione delle tecnologie di intelligenza artificiale dell'azienda da parte degli sviluppatori.

Sebbene lo strumento si concentri sul supporto agli sviluppatori, offre funzionalità avanzate come la generazione di video utilizzando il modello Veo 3, la stesura di report di ricerca, il recupero di informazioni direttamente da Internet e la connessione a server e database esterni tramite il protocollo MCP.

Gemini CLI è disponibile come progetto open source su GitHub con licenza Apache 2.0 e offre un limite di utilizzo gratuito di 60 richieste al minuto e 1.000 richieste al giorno. Tuttavia, permangono dubbi sull'accuratezza di questi strumenti. Recenti risultati di Stack Overflow indicano che meno della metà degli sviluppatori si fida pienamente delle risposte degli strumenti di intelligenza artificiale, dato il potenziale rischio di errori o la mancata individuazione di vulnerabilità di sicurezza.


leggi anche