In spirito del famoso scherzo di Tensorflow Fizz Buzz e del problema XOr ho iniziato a pensare, se è possibile progettare una rete neurale che implementa la funzione ?
Data una rappresentazione di un numero (ad esempio come un vettore in forma binaria, in modo tale che il numero 5
sia rappresentato come [1,0,1,0,0,0,0,...]
), la rete neurale dovrebbe imparare a restituire il suo quadrato - 25 in questo caso.
Se potessi implementare , probabilmente potrei implementare e generalmente qualsiasi polinomio di x, e quindi con la serie di Taylor potrei approssimare , che risolverebbe il problema di Fizz Buzz - una rete neurale che può trovare il resto della divisione.
Chiaramente, solo la parte lineare degli NN non sarà in grado di eseguire questo compito, quindi se potessimo fare la moltiplicazione, ciò avverrebbe grazie alla funzione di attivazione.
Puoi suggerire idee o leggere sull'argomento?