Icon

IMDB dataset - (LLM) Sentiment analysis (HF, ollama, GPT4ALL - hub.knime.com)

Questo Workflow serve a mostrare come utilizzare alcune implementazioni di LLM locali e remote per eseguire una analisi sul sentiment di alcune recensioni (in inglese) presenti sul sito IMDB.

URL: ai.stanford.edu/~amaas/data/sentiment/ https://ai.stanford.edu/~amaas/data/sentiment/
URL: ollama.ai/blog/ollama-is-now-available-as-an-official-docker-image https://ollama.ai/blog/ollama-is-now-available-as-an-official-docker-image
URL: gpt4all.io/index.html https://gpt4all.io/index.html
URL: Sentiment Analysis sul dataset IMDB Movie, con l’uso di LLM locali (o quasi) https://datasciencefacile.altervista.org/2024/01/27/sentiment-analysis-sul-dataset-imdb-movie-con-luso-di-llm-locali-o-quasi/

Utilizziamo un LLM pre-trained collegandoci ad Hugging-Face: inserire la propria User access token di Hugging Face per utilizzare il modellopretrained remoto. Utilizziamo unLLM pre-trainedlocale con ollamasu un'istanza indocker cherisponde su http://localhost:11434 preparazione dei dati e del prompt Mostriamo lo score e i risultati Utilizziamo un LLM pre-trained locale tra quelli disponibile per GPT4ALL: selezionare il file nel percorso locale del proprio PC Test dataset(IMDB, 5000 righebilanciate)Invio i promptsSamplingpreparo promptPreparo il promptEliminomarkuphtmlElimino \"Impostare promptrichiesta per analisiassocia0=positivo1=negativoConverte labelin stringaConnessioneal modello LLM remotoAuthconnessionead ollamaHugging FaceollamaCollegamentoad un LLM pre-trainedlocale di GPT4ALLInvio i promptsGPT4ALL CSV Reader LLM Prompter Row Sampling String Manipulation String Manipulation Markup Tag Filter String Manipulation Table Creator Rule Engine Number to String Preprocessing HF Hub LLMConnector HF HubAuthenticator CredentialsConfiguration InterrogoOllama Column Renamer Scoring&Results Scoring&Results GPT4All ChatModel Connector LLM Prompter Scoring&Results Column Renamer Local File BrowserConfiguration Utilizziamo un LLM pre-trained collegandoci ad Hugging-Face: inserire la propria User access token di Hugging Face per utilizzare il modellopretrained remoto. Utilizziamo unLLM pre-trainedlocale con ollamasu un'istanza indocker cherisponde su http://localhost:11434 preparazione dei dati e del prompt Mostriamo lo score e i risultati Utilizziamo un LLM pre-trained locale tra quelli disponibile per GPT4ALL: selezionare il file nel percorso locale del proprio PC Test dataset(IMDB, 5000 righebilanciate)Invio i promptsSamplingpreparo promptPreparo il promptEliminomarkuphtmlElimino \"Impostare promptrichiesta per analisiassocia0=positivo1=negativoConverte labelin stringaConnessioneal modello LLM remotoAuthconnessionead ollamaHugging FaceollamaCollegamentoad un LLM pre-trainedlocale di GPT4ALLInvio i promptsGPT4ALLCSV Reader LLM Prompter Row Sampling String Manipulation String Manipulation Markup Tag Filter String Manipulation Table Creator Rule Engine Number to String Preprocessing HF Hub LLMConnector HF HubAuthenticator CredentialsConfiguration InterrogoOllama Column Renamer Scoring&Results Scoring&Results GPT4All ChatModel Connector LLM Prompter Scoring&Results Column Renamer Local File BrowserConfiguration

Nodes

Extensions

Links