ПК на работе

В октябре на микропроцессорной конференции в Сан-Хосе я поймал себя на мысли, что слишком “толстым” компьютер быть не может.

Речь идет, разумеется, не о физической толщине переносных систем.

Я всячески приветствую изящную худобу корпусов блокнотных ПК и компактность настольных машин, но лишь до тех пор, пока их оперативная и массовая память не начинают страдать от дистрофии.

Поймите меня правильно  -  я высоко ценю чудеса, которые творят разработчики центральных процессоров нового поколения, задирая их рабочие частоты едва ли не выше, чем телевизионные каналы UHF. Я всегда готов отстаивать достоинства процессоров Alpha по сравнению с любыми другими. Можете рассчитывать на меня, если надо будет вместе со специалистами, знающими толк в программировании, поиздеваться над неоднородными функциями регистров и несимметричными наборами команд.

Но когда мне нужно просто сделать свою работу, я буду утверждать, что медленный процессор  -  никакая не проблема по сравнению с недостаточно “толстой” памятью, как оперативной, так и дисковой.

Если один ЦП работает на 10% медленнее другого, задание на нем выполняется дольше примерно на те же 10%. Это  -  в самом худшем случае, когда запускаемое приложение интенсивно использует процессор и когда я хорошо представляю суть задачи, которую нужно решить.

Во всех остальных случаях более быстрый процессор просто еще “быстрее” ждет  -  меня, т. е. пользователя, мою сеть или Web-сервер. Скорости работы именно этих компонентов вычислительной системы ограничивают ее общую производительность, какова бы ни была тактовая частота центрального процессора.

Но если убрать 10% оперативной и/или дисковой памяти ПК, время выполнения задачи может увеличиться вдвое, если не больше. Это обусловливается несколькими причинами.

Во-первых, понаблюдайте, что происходит, когда электронная таблица или еще какая-нибудь ресурсоемкая задача пересекает критический порог величины и сложности и подсистема виртуальной памяти начинает перекачивать страницы из ОЗУ на диск и обратно. Зрелище душераздирающее.

Дела обстоят еще хуже, когда оказывается опасно заполнен почти весь объем жесткого диска и пользователь целыми часами судорожно ищет, что еще можно было бы удалить или перенести на резервные носители без ущерба для системы. Это  -  перенасыщение другого рода, не такое, как в предыдущем случае, и оно отбирает огромное количество столь бесценного ресурса, как время конечных пользователей.

А ведь для его экономии и разрабатывалось все это компьютерное оборудование, не так ли?

Машина с 640 Кб ОЗУ для работы под DOS была вполне хороша в 1984 г., а уже в 1988-м совсем не лишними были 4 Мб (например, для серьезных электронных таблиц, а также многозадачных режимов в Desqview или Macintosh MultiFinder). За четыре года необходимый объем ОЗУ увеличился в шесть раз.

Исходя из этих темпов роста нормальное ОЗУ должно было к 1992 г. иметь 24 Мб. И действительно  -  именно столько памяти я тогда устанавливал на новые рабочие станции под Unix, причем они предназначались даже не для выполнения задач с интенсивной графикой, а просто для разработки ПО.

Требования к оперативной памяти должны были вырасти к 1996 г. до 144 Мб. С учетом системы виртуальной памяти это означает примерно 64 Мб физического объема ОЗУ, и я рекомендовал в то время для Windows NT именно такую величину. Добавьте еще два года  -  и предпочтительный объем ОЗУ увеличивается до 128 Мб (и не меньше 2 Гб на жестком диске) для систем, которые будут покупать в 1998 г.

Сбережение средств за счет отказа от наращивания оперативной памяти и дискового пространства  -  худшая разновидность ложной экономии; я уверен, что вложения здесь полностью окупаются. Поэтому советую: при планировании ваших компьютерных закупок на будущий год соблюдайте баланс между скоростью процессора и емкостью оперативной и дисковой памяти.              

Питер Коффи

Что замедляет вашу работу и может ли вам помочь какое-нибудь дополнительное оборудование? Напишите мне по адресу: peter_coffee@zd.com.