«Дикий Запад» — это целая историческая эпоха и часть американской культуры, нашедшая отражение в вестернах, языке и так далее. Неважно сколько в описанной картинке правды, я сейчас не об этом. Почему исчезла эта эпоха? Наверное, мир стал гуманнее, цивилизованнее и добрее? Как бы не так...