western [wè-stern] inglese aggettivo: film o storia che si svolge nel West, la parte occidentale degli Stati Uniti d'America.
"Ho visto un film western decisamente emozionante".
"Ho visto un film western decisamente emozionante".