Ho appena visto un recente video WIRED sulle prestazioni degli assistenti virtuali nel raccontare barzellette. Sono composti da umani, ma mi piacerebbe sapere se l'IA è diventata abbastanza brava da scriverne.
Ho appena visto un recente video WIRED sulle prestazioni degli assistenti virtuali nel raccontare barzellette. Sono composti da umani, ma mi piacerebbe sapere se l'IA è diventata abbastanza brava da scriverne.
Risposte:
Non credo che l'IA sia ancora arrivata a quel punto. Ecco alcuni degli articoli interessanti sull'argomento:
Recentemente è stato scritto un documento che ha tentato di generare battute utilizzando l'apprendimento non supervisionato . Le battute sono formali: sono tutte nella forma "Mi piace la mia X come mi piace la mia Y: Z" dove X e Y sono nomi e Z è un aggettivo che può descrivere sia X che Y. Ecco alcuni dei barzellette generate in questo documento:
I like my relationships like I like my source, open
I like my coffee like I like my war, cold
I like my boys like I like my sectors, bad
Quanto sono divertenti queste battute è una questione di gusti personali, immagino.
Un altro articolo di Dario Bertero e Pascale Fung si avvale di un LSTM per prevedere l'umorismo da un set di dati degli spettacoli della teoria del Big Bang. Questo non sta generando battute, ma sta scoprendo dove vengono dette battute in questo set di dati (quindi, in teoria, il set di dati con etichetta risultante può essere usato per formare un modello per creare battute).
Un altro articolo è quello di He Ren, Quan Yang . A differenza del primo documento di cui sopra che non era supervisionato, questo è un modello di apprendimento supervisionato. Il loro modello di rete neurale, genera barzellette come:
Apple is teaming up with Playboy Magazine in the self driving office.
One of the top economy in China , Lady Gaga says today that Obama is legal.
Google Plus has introduced the remains that lowers the age of coffee.
According to a new study , the governor of film welcome the leading actor of Los Angeles area , Donald Trump .
I miei due centesimi :
Al momento della stesura di questo articolo, sembra che le reti neurali ricorrenti a più livelli (LSTM, GRU, RNN) per i modelli linguistici a livello di personaggio siano di gran lunga il modo più promettente per farlo. Forse se trovi alcuni dati davvero interessanti, puoi inventare alcune battute divertenti, simili a come Janelle Shane è stata in grado di generare quelle che trovo essere linee di pickup davvero divertenti come:
Are you a 4loce? Because you’re so hot!
I want to get my heart with you.
You are so beautiful that you know what I mean.
I have a cenver? Because I just stowe must your worms.
Hey baby, I’m swirked to gave ever to say it for drive.
If I were to ask you out?
You must be a tringle? Cause you’re the only thing here.
I’m not on your wears, but I want to see your start.
You are so beautiful that you make me feel better to see you.
Hey baby, you’re to be a key? Because I can bear your toot?
I don’t know you.
I have to give you a book, because you’re the only thing in your eyes.
Are you a candle? Because you’re so hot of the looks with you.
I want to see you to my heart.
If I had a rose for every time I thought of you, I have a price tighting.
I have a really falling for you.
Your beauty have a fine to me.
Are you a camera? Because I want to see the most beautiful than you.
I had a come to got your heart.
You’re so beautiful that you say a bat on me and baby.
You look like a thing and I love you.
Hello.
A partire da ora non abbiamo una teoria cognitiva soddisfacente dell'umorismo (o almeno, quella che può valutare l'ilarità di uno scherzo), quindi un rapido esame della letteratura mostra che non abbiamo molto indizio su come costruire un modello.
Per questo motivo e il fatto che i metodi esistenti non sembrano produrre in modo affidabile buoni scherzi in forma libera, sembrano esserci poche ragioni per credere che i metodi ML possano produrre buoni scherzi.
Ma ovviamente questo è tutto normativo.