LEARNit Dictionary
the West Coast
noun
/ðə ˌwest ˈkəʊst/
UK
/ðə ˌwest ˈkəʊst/
US
1
the states on the west coast of the US, especially California
ساحل غربی, سواحل غربی آمریکا, کالیفرنیا و ایالات اطراف, ایالتهای ساحلی غربی