Created on 2024-01-05 10:43
Published on 2024-01-05 11:24
Ho notato con interesse questa lista di best-practices riguardo all'AI prompting.
Buone regole ma migliorabili. Quindi vediamo come.
Ma soprattutto è importante per l'essere umano imparare a relazionarsi con i sottoposti in maniera civile perché le brutte abitudini apprese al prompt poi si trasferiscono anche quando dall'altra parte c'è un altro essere umano. Non solo, ma dal momento che - se non fosse per appositi filtri introdotti - sarebbe alquanto difficile distinguere con un semplice test di Turing le attuali LLM dagli esseri umani e in previsione di una futura evoluzione, la reazione delle AI alla cortesia e al suo opposto assomigliare sempre di più a quella degli esseri umani.
Questa regola è da tenere bene in mente:
le abitudini sono facili da acquisire e molto difficile da togliersi quindi abituarsi ad una comunicazione sbagliata, diventerà un boomerang quando poi interagiamo con altri umani.
interagendo con AI supponendo che tanto è una macchina e che saranno sempre prive di sensibilità dimostra una mancanza di prospettiva di lungo termine anche senza considerare il punto sopra.
Forse un giorno l'operatore umano NON sarà più l'essere (più) intelligente nell'interazione con una AI, almeno assicuriamoci di rimanere umani (wink).
La #1 è sbagliata, perché se è vero che non serve prodigarsi con il galateo, utilizzare una forma seppur blanda di cortesia ha effetti positivi sulla disponibilità dell'AI altrimenti non funzionerebbe nemmeno il suggerimento #6 ovvero offrire una mancia come ricompensa.
La #4 è da considerarsi un suggerimento e per comprenderlo basta confrontarla con la #13. Va bene essere positivi e propositivi "do" ma anche mettere dei paletti "don't" riguardo a cosa ci si aspetta dalla risposta. Se ci sono due forme espressive che hanno il medesimo significato allora è sempre preferibile la forma positiva. Così come è vero anche con i sottoposti umani: "do this another way seems better to me" invece che "don't do in that way but ...".
Riguardo alla #6, sappiamo che funziona ma occorre integrarla. Se la risposta effettivamente risponde ai requisiti richiesti dobbiamo tenere fede alla nostra parola: "good job, here you are your tip: $xxx". Prima il complimento (cortesia) e poi la mancia come con gli esseri umani. Non è da escludersi che oggi o in futuro le AI si specializzino rispetto all'account (dominus). Quindi impareranno di conseguenza la relazione (o meno) fra promessa e il suo avverarsi.
Riguardo alla #9 la parte "you must" è da evitare visto che "your task is" è più che sufficiente.
La #10 è sbagliata, non nelle intenzioni, ma nella sua formulazione. invece va bene usare questo: "using XXX will penalize the answer, avoid it as much as possible".
Nella #13 si suppone che l'AI sia consapevole dei suoi stessi pregiudizi cosa di cui anche gli umani spesso non ne sono capaci. Va bene ma è da intendersi, in termini di risultati, come una richiesta di una specifica formulazione del testo in maniera che sembri il più neutrale possibile. Per contro, quando serve, si può chiedere di ricevere una risposta affetta da un certo tipo di BIAS tipo "how a racist person would answer in this situation, can you image it?"
Nell #15 evitare "teach me" ma usare "explain this" o "what does this means?"
Superfluo, è sufficiente dare una particolare importanza ad una parola oppure ad una frase in modo esplicito.
Vale la pena di spendere due parole riguardo alla Chain-of-Tought (CoT) che per i neofiti potrebbe sembrare un termine oscuro e fin'anche magico ma che in realtà non è altro che il classico ragionamento logico-razionale o ragionamento consequenziale o più in generale il flusso di coscienza ovvero una sequenza di pensieri collegati fra di loro.
La catena di pensiero può essere espressa come una serie di idee che portano a una conclusione specifica o più semplicemente come dei pensieri che si susseguono nella vostra testa. In questo secondo caso è più corretta l'espressione "flusso di coscienza" in quanto il passaggio da uno specifico pensiero ad un altro non è necessariamente legato da un ragionamento logico-razionale ma da una qualche associazione conscia o inconscia anche non caratterizzante in termini semantici.
Qui di seguito alcuni link interessanti riguardo a questo argomento:
Chain of Thought Prompting, section of the Prompt Engineering Guide by learnpromptig.org.
Language Models Perform Reasoning via Chain of Thought, a presentation by Google Research blog.
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models, a paper by the Google Research Brain Team.
Language Models are Few-Shot Learners, a paper by OpenAI.
Towards Understanding Chain-of-Thought Prompting: An Empirical Study of What Matters, a paper by Association for Computational Linguistics
Secret Tips to Use ChatGPT like a Pro (1.2MB version)
ChatGPT Cheat Sheet for Data Science (5.6MB version)
8 email prompts for difficult work situations (8.1MB version)
© 2023, Roberto A. Foglietta, licensed under Creative Common Attribution Non Commercial Share Alike v4.0 International Terms (CC BY-NC-SA 4.0).
This article can be easily converted in PDF using webtopdf.com free service.