Tanto tempo fa, ad esempio, alle elementari mi propinavano idee di sinistra, inculcandomi cose come: i gay sono normali e che bisogna rispettare gli immigrati ( quindi accettare culture diverse). Oggi invece com'è? La scuola è di destra o di sinistra?