Листая последние статьи из Phys. Rev. Letters, наткнулся на занятную статью All-Optical Magnetic Recording with Circularly Polarized Light (препринт статьи свободно доступен на странице одного из авторов). Хотел было написать новость, но потом увидел, что эта работа уже месяц назад прошла по многим сайтам (см. например, текст на CNews, на iXBT на Радио-свобода). И подана эта новость была, разумеется, с большими искажениями. ("Разумеется", это потому что никто ж не читал саму статью -- все переписывали в меру своего понимания вольное изложение из англоязычных источников, которые тоже саму статью вряд ли не видели в глаза, а основывались лишь на интервью с авторами.)
Практически все подали новость так, словно побит рекорд записи информации на жесткий диск. Это совершенно неверно. Удалось сделать совсем другое: уменьшить время записи одного бита на магнитной пленке с нескольких пикосекунд до 40 фемтосекунд. Причем осуществить это удалось без использования внешних магнитных полей -- только лазерным импульсом; в этом состоит научная новизна и ценность работы.
К скорости записи информации (т.е. сколько бит в секунду можно писать на ленту) это пока не имеет прямого отношения. В самом эксперименте импульсный лазер работал с частотой 1 кГц, так что больше 1 кбит в секунду этот эксперимент в принципе не мог ничего записать. Для того, чтоб писать со скоростью 1 Тбит в секунду (вот тогда можно говорить о стократных рекордах и о революции в записи данных), надо в миллиард раз увеличить частоту импульсов, т.е. в миллиард раз увеличить мощность лазера. Учитывая, что сейчас требуется порядка микроджоуля на один акт переключения, для этого потребуется мегаваттный лазер, сфокусированного прямехонько на плату жесткого диска. Сурово, не так ли?
На самом деле эта технология вообще вряд ли сгодится для жестких дисков. Скорее всего, она пойдет для магнитных лент. Во-первых, в этом случае нет необходимости механически перемещать саму головку, знай себе, протягивай ленту со скоростью в несколько километров в секунду и всё :)
А во вторых, автоматически ршается задача охлаждения магнитной ленты.
(Кстати, нагрев неизбежен, он является ключевым фактором самой технологии, поскольку луч вначале нагревает пятно почти до точки Кюри, где резко повышается магнитная восприимчивость, а затем поворачиает намагниченность.)
Ну и кроме этого для реального применения нужно существенно, на порядки, уменьшить размер пятна. Хотя непонятно, можно ли сделать существенно меньше микрона -- мешает дифракционный предел.
В общем, несмотря на прекрасный экспериментальный результат, надо понимать, что в теперешнем виде эта методика к современным информационным технологиям пока не относится. Однако при дальнейшем ее усовершенствовании можно будет в определенных ситуациях побить предыдущие рекорды.
А если вернуться их технологий в науку, то эта работа на самом деле задала больше вопросов, чем дала ответов. Потому что пока неясно, как за такое короткое время лазерный импульс с такой высокой степенью надежности передает направление своей полярзации магнитному домену. Т.е. может это через 10 лет будет работать у вас дома, но сейчас этим пока занимаются теоретики и экспериментаторы.
Кстати, справедливости ради стоит отметить, что CNews впоследствии написала новую заметку, где привела некоторые технические данные эксперимента.
[Комментарии на Элементах]
Страницы
▼
29 июля 2007 г.
28 июля 2007 г.
Общая тенденция и резкие отклонения
В разговорах про глобальные климатические изменения люди часто смешивают две разные вещи: общую тенденцию и резкие локальные отклонения.
Типичный пример -- когда особо жаркий сезон считается в массовом сознании прямым проявлением глобального потепления. Казалось бы, это ж хорошо, когда люди видят климатические изменения своими глазами, значит они будут верить ученым. Нет, это не хорошо. Потому что особо холодная зима будет восприниматься таким же сильным аргументом против потепления (на эту тему есть даже карикатуры). Более того, если кто-то удосужится посмотреть на числа (климатологи обещают глобальное потепление на 2-3 градуса через сто лет, и это считается почти катастрофой), то ему это может показаться смешным -- "ну подумаешь, всего-то на какие-то три градуса больше! А они кричат, катастрофа, катастрофа. Обманывают, небось деньги хотят себе выбить и все."
На самом деле, конечно, в климате есть внутренняя переменчивость. Даже если бы глобальная температура оставалась постоянной, то аномально жаркие и аномально холодные сезоны в глобальном масштабе все равно случались бы. А если смотреть на региональный климат, то там амплитуда естественной переменчивости возросла бы еще в несколько раз. Это всё значит, что в региональном масштабе повышение или понижение температуры, скажем, на 10 градусов относительно средневекового значения в этот же сезон, например, в течение месяца вполне регулярно может происходить где-нибудь на Земле. Поэтому сам по себе такой выброс ни о чем не говорит.
Другое дело, если увеличивается частота аномальных сезонов или аномальных погодных условий в каком-то большом регионе (например, во всей Европе или во всей Северной Америке). Вот тут есть предмет для анализа. Скажем, в последние годы в Европе уже было две мощных тепловых волны на целый сезон. Это аномально жаркое лето 2003 года и аномально теплая осень 2006-зима 2007 года (которая считается самой теплой по крайней мере за последние 500 лет). Считается, что причины обоих эпизодов одинаковые -- мощный наплыв субтропических воздушных масс. Возникает вопрос, свидетельствует ли это об увеличении частоты аномальных погодных ситуаций? Связана ли это увеличение частоты с медленной общей тенденцией?
Однозначного ответа на эти вопросы, насколько я понимаю, пока нет. Конечно, существует "очевидный" источник увеличения частоты очень редких событий, если среднее значение чуть сдвинулось в сторону (особенно, при гауссовом распределении вероятностей). Однако моделирования показывают, что один лишь этот очевидный источник не может привести к существенному увеличению частоты редких событий на масштабе в 10-20 лет.
Возникает тогда другой вопрос: может быть, глобальные изменения касаются не только смещения "среднего", но и изменяют функцию распределения сезонов по "аномальности"? Т.е. может быть они меняют и амплитуду сезонной и региональной переменчивости?
Общий ответ такой: да, кое-где и кое в чем меняют, но во всем или нет -- пока неизвестно.
Например, моделирования показывают, что некоторые засушливые районы станут более засушливыми при небольшом повышении глобальной температуры, это уменьшит растительность, приведет к опустыниванию, а значит, усилит суточные и сезонные перепады температуры. Это пример одной из многочисленных петель обратной связи в климате. В результате климатические изменения в данном регионе будут усилены по сравнению с глобальными в несколько раз. Но делать вывод на основании этого, что жара 2003 года стала результатом деятельности человека напрямую нельзя.
Это я к чему. Сейчас вот в Англии продолжается мощное наводнение. А несколько дней назад в Nature появилась статья, в которой объявляется, что на масштабе в 75 лет обнаружено влияние человека на широтное распределение осадков. В северных тропиках среднегодовое количество осадков медленно понижается, а в высоких северных широтах -- растет.
А сейчас вот прочитал новость, в которой журналисты свели вместе эти две вещи и фактически заставили читателя думать, что в наводнении в Англии виноват человек. (Ладно, если бы журналисты это объявили от себя; так ведь они приводят ссылки на научную статьи, и тем самым заставляют читателей верить своим словам.)
Очевидно, что такой вывод ниоткуда не следует. Если посмотреть на данные, приведенные в статье, то видно, что вариации из года в год пока что превышают суммарный эффект накопленный за 75 лет.
Кстати, увеличивается ли частота редких по силе наводнений и засух, в этой статье не говорится. Вообще, надо почитать, что по этому поводу сказано в последнем отчете IPCC.
PS
Перечитал и мне показалось, что текст можно понять так, словно я тут пытаюсь убедить, что человек мало влияет на климат. Вовсе нет. Уже установлено вляние человека на хим. состав атмосферы, температуру воздуха, давления на уровне моря, высоту тропопаузы и т.д. Моделирования показывают, что если все так будет продолжаться, то (1) скоро во многих регионах начнутся серьезные экологические изменения, и (2) повышается вероятность резкого запуска сильных природных механизмов, меняющих климат (например, перестроится течение Гольфстрим).
Речь идет о том, что данные (пока?) не позволяют связывать единичные аномальные события с медленными тенденциями. Ученые это понимают, а массовый читатель -- нет.
[Комментарии на Элементах]
Типичный пример -- когда особо жаркий сезон считается в массовом сознании прямым проявлением глобального потепления. Казалось бы, это ж хорошо, когда люди видят климатические изменения своими глазами, значит они будут верить ученым. Нет, это не хорошо. Потому что особо холодная зима будет восприниматься таким же сильным аргументом против потепления (на эту тему есть даже карикатуры). Более того, если кто-то удосужится посмотреть на числа (климатологи обещают глобальное потепление на 2-3 градуса через сто лет, и это считается почти катастрофой), то ему это может показаться смешным -- "ну подумаешь, всего-то на какие-то три градуса больше! А они кричат, катастрофа, катастрофа. Обманывают, небось деньги хотят себе выбить и все."
На самом деле, конечно, в климате есть внутренняя переменчивость. Даже если бы глобальная температура оставалась постоянной, то аномально жаркие и аномально холодные сезоны в глобальном масштабе все равно случались бы. А если смотреть на региональный климат, то там амплитуда естественной переменчивости возросла бы еще в несколько раз. Это всё значит, что в региональном масштабе повышение или понижение температуры, скажем, на 10 градусов относительно средневекового значения в этот же сезон, например, в течение месяца вполне регулярно может происходить где-нибудь на Земле. Поэтому сам по себе такой выброс ни о чем не говорит.
Другое дело, если увеличивается частота аномальных сезонов или аномальных погодных условий в каком-то большом регионе (например, во всей Европе или во всей Северной Америке). Вот тут есть предмет для анализа. Скажем, в последние годы в Европе уже было две мощных тепловых волны на целый сезон. Это аномально жаркое лето 2003 года и аномально теплая осень 2006-зима 2007 года (которая считается самой теплой по крайней мере за последние 500 лет). Считается, что причины обоих эпизодов одинаковые -- мощный наплыв субтропических воздушных масс. Возникает вопрос, свидетельствует ли это об увеличении частоты аномальных погодных ситуаций? Связана ли это увеличение частоты с медленной общей тенденцией?
Однозначного ответа на эти вопросы, насколько я понимаю, пока нет. Конечно, существует "очевидный" источник увеличения частоты очень редких событий, если среднее значение чуть сдвинулось в сторону (особенно, при гауссовом распределении вероятностей). Однако моделирования показывают, что один лишь этот очевидный источник не может привести к существенному увеличению частоты редких событий на масштабе в 10-20 лет.
Возникает тогда другой вопрос: может быть, глобальные изменения касаются не только смещения "среднего", но и изменяют функцию распределения сезонов по "аномальности"? Т.е. может быть они меняют и амплитуду сезонной и региональной переменчивости?
Общий ответ такой: да, кое-где и кое в чем меняют, но во всем или нет -- пока неизвестно.
Например, моделирования показывают, что некоторые засушливые районы станут более засушливыми при небольшом повышении глобальной температуры, это уменьшит растительность, приведет к опустыниванию, а значит, усилит суточные и сезонные перепады температуры. Это пример одной из многочисленных петель обратной связи в климате. В результате климатические изменения в данном регионе будут усилены по сравнению с глобальными в несколько раз. Но делать вывод на основании этого, что жара 2003 года стала результатом деятельности человека напрямую нельзя.
Это я к чему. Сейчас вот в Англии продолжается мощное наводнение. А несколько дней назад в Nature появилась статья, в которой объявляется, что на масштабе в 75 лет обнаружено влияние человека на широтное распределение осадков. В северных тропиках среднегодовое количество осадков медленно понижается, а в высоких северных широтах -- растет.
А сейчас вот прочитал новость, в которой журналисты свели вместе эти две вещи и фактически заставили читателя думать, что в наводнении в Англии виноват человек. (Ладно, если бы журналисты это объявили от себя; так ведь они приводят ссылки на научную статьи, и тем самым заставляют читателей верить своим словам.)
Очевидно, что такой вывод ниоткуда не следует. Если посмотреть на данные, приведенные в статье, то видно, что вариации из года в год пока что превышают суммарный эффект накопленный за 75 лет.
Кстати, увеличивается ли частота редких по силе наводнений и засух, в этой статье не говорится. Вообще, надо почитать, что по этому поводу сказано в последнем отчете IPCC.
PS
Перечитал и мне показалось, что текст можно понять так, словно я тут пытаюсь убедить, что человек мало влияет на климат. Вовсе нет. Уже установлено вляние человека на хим. состав атмосферы, температуру воздуха, давления на уровне моря, высоту тропопаузы и т.д. Моделирования показывают, что если все так будет продолжаться, то (1) скоро во многих регионах начнутся серьезные экологические изменения, и (2) повышается вероятность резкого запуска сильных природных механизмов, меняющих климат (например, перестроится течение Гольфстрим).
Речь идет о том, что данные (пока?) не позволяют связывать единичные аномальные события с медленными тенденциями. Ученые это понимают, а массовый читатель -- нет.
[Комментарии на Элементах]
14 июля 2007 г.
Простота и сложность
Пост Игоря Шутяева в соседней дискуссии про "простоту и пестроту" напомнил мне об одном утверждении, которое я вычитал в каком-то математическом тексте.
Там говорилось, что в математике есть, говоря очень общо, две стратегии получения нетривиальных результатов.
В первом способе вся сложность -- в длинных вычислениях; во втором способе вся трудность спрятана в характеристиках объекта, который вы изобретаете.
Чтоб не выглядело голословным, приведу пример. Есть такая теорема, называется малая теорема Ферма. Пусть p простое число, а n произвольное целое число. Тогда np-n делится на p.
Её в общем-то можно доказать в лоб, расписывая np как (1+1+...+1)p, разлагая на отдельные слагаемые и используя свойства биномиальных коэффициентов. Но с непривычки это большая морока! Однако если знать некоторые элементарные свойства теории (конечных) групп, типа порядка, подгрупп, орбит и т.п., то эта теорема становится почти тривиальной.
Т.е. умножение и сложение целых чисел -- очень простая наука, но чтоб с помощью лишь этого доказать малую теорему Ферма, придется попотеть. И от простоты в конце концов ничего не останется. А вот в теоретико-групповом способе доказательства вся внутренняя структура числа np-n, вся трудность спрятана в понятие мультипликативной группы вычетов по модулю p. Одно лишь построение этого объекта и понимание его свойств сразу приводит к интересным результатам. Но надо преодолеть барьер - сначала выучить основы теории групп.
Так вот, я это всё к тому, что в теоретической физике эти две стратегии получения новых результатов тоже прослеживаются (хотя, вероятно, не всё ими исчерпывается).
Можно стартовать с очень простых (по математической форме) уравнений, но по мере их решения будет возрастать вычислительная сложность. Так что необыкновенная простота формулы F=ma имеется только до того, как ты начал реально её использовать в нетривиальных ситуациях. Например в небесной механике, как правильно заметил Игорь Шутяев, никакой простотой и не пахнет.
С другой стороны, ту же механику можно строить и из вариационного принципа. Понять в деталях саму его формулировку для человека, не проходившего хотя бы годовой курс высшей математики (чем бы это ни было) и механики, очень трудно. Какая тут простота, если уже само понятие очень сложное? Так вот, простота начинается когда этот принцип начинаешь применять для получения результатов. Она заключается в том, что даже задачи в сложных ситуациях решаются примерно так же легко, как и простейшая задачка движения одной материальной точки в потенциале.
Вот эта простота -- гораздо более фундаментальная и гораздо более полезная простота.
Еще один пример этих двух подходов есть в книжке Фейнмана "КЭД -- странная теория света и вещества". Он говорит, что непривычные квантовые явления могут быть легко описаны на языке комплексных волновых функций и уравнения Шредингера, но если вы не хотите разбираться с этими математическими понятиями, то можно просто "поиграть в стрелочки" -- правда вывод тех же результатов (точнее, самых простых из них) будет несравненно более длинным.
Вообще, примеров можно приводить много. Например, те же квазичастицы -- тоже переход от простейших атомов к новым, более абстрактным (и на первый взгляд, более сложным!) степеням свободы. Но зато явления, наблюдаемые, например, в металлах, в жидком гелии и т.д., выражаются в терминах квазичастиц несравненно более простым способом.
Или вот пример из буквально сегодняшней физики. Есть теория КХД, а есть ее N=4 суперсимметричное обобщение. Переход к суперсимметрии резко повышает начальную сложность конструкции. Но как только эта сложность преодолена, то становится видно, что эта теория очень простая, гораздо проще самой КХД (это потому что в ней константа связи становится не бегущей, а фиксированной, т.е. появляется точная масштабная инвариантность; кроме того, у нее есть AdS/CFT соответствие, помогающее изучать рассяение в режиме сильной связи). Понимание этой теории даст, вероятно, ключ к лучшему пониманию и КХД.
[Комментарии на Элементах]
Там говорилось, что в математике есть, говоря очень общо, две стратегии получения нетривиальных результатов.
- Либо вы берет простые объекты и манипулируете с ними сложным образом,
- либо бы строите новый сложный объект, описываете его свойства, и тогда даже простые манипуляции с этим объектом могут привести к нетривиальным результатам.
В первом способе вся сложность -- в длинных вычислениях; во втором способе вся трудность спрятана в характеристиках объекта, который вы изобретаете.
Чтоб не выглядело голословным, приведу пример. Есть такая теорема, называется малая теорема Ферма. Пусть p простое число, а n произвольное целое число. Тогда np-n делится на p.
Её в общем-то можно доказать в лоб, расписывая np как (1+1+...+1)p, разлагая на отдельные слагаемые и используя свойства биномиальных коэффициентов. Но с непривычки это большая морока! Однако если знать некоторые элементарные свойства теории (конечных) групп, типа порядка, подгрупп, орбит и т.п., то эта теорема становится почти тривиальной.
Т.е. умножение и сложение целых чисел -- очень простая наука, но чтоб с помощью лишь этого доказать малую теорему Ферма, придется попотеть. И от простоты в конце концов ничего не останется. А вот в теоретико-групповом способе доказательства вся внутренняя структура числа np-n, вся трудность спрятана в понятие мультипликативной группы вычетов по модулю p. Одно лишь построение этого объекта и понимание его свойств сразу приводит к интересным результатам. Но надо преодолеть барьер - сначала выучить основы теории групп.
Так вот, я это всё к тому, что в теоретической физике эти две стратегии получения новых результатов тоже прослеживаются (хотя, вероятно, не всё ими исчерпывается).
Можно стартовать с очень простых (по математической форме) уравнений, но по мере их решения будет возрастать вычислительная сложность. Так что необыкновенная простота формулы F=ma имеется только до того, как ты начал реально её использовать в нетривиальных ситуациях. Например в небесной механике, как правильно заметил Игорь Шутяев, никакой простотой и не пахнет.
С другой стороны, ту же механику можно строить и из вариационного принципа. Понять в деталях саму его формулировку для человека, не проходившего хотя бы годовой курс высшей математики (чем бы это ни было) и механики, очень трудно. Какая тут простота, если уже само понятие очень сложное? Так вот, простота начинается когда этот принцип начинаешь применять для получения результатов. Она заключается в том, что даже задачи в сложных ситуациях решаются примерно так же легко, как и простейшая задачка движения одной материальной точки в потенциале.
Вот эта простота -- гораздо более фундаментальная и гораздо более полезная простота.
Еще один пример этих двух подходов есть в книжке Фейнмана "КЭД -- странная теория света и вещества". Он говорит, что непривычные квантовые явления могут быть легко описаны на языке комплексных волновых функций и уравнения Шредингера, но если вы не хотите разбираться с этими математическими понятиями, то можно просто "поиграть в стрелочки" -- правда вывод тех же результатов (точнее, самых простых из них) будет несравненно более длинным.
Вообще, примеров можно приводить много. Например, те же квазичастицы -- тоже переход от простейших атомов к новым, более абстрактным (и на первый взгляд, более сложным!) степеням свободы. Но зато явления, наблюдаемые, например, в металлах, в жидком гелии и т.д., выражаются в терминах квазичастиц несравненно более простым способом.
Или вот пример из буквально сегодняшней физики. Есть теория КХД, а есть ее N=4 суперсимметричное обобщение. Переход к суперсимметрии резко повышает начальную сложность конструкции. Но как только эта сложность преодолена, то становится видно, что эта теория очень простая, гораздо проще самой КХД (это потому что в ней константа связи становится не бегущей, а фиксированной, т.е. появляется точная масштабная инвариантность; кроме того, у нее есть AdS/CFT соответствие, помогающее изучать рассяение в режиме сильной связи). Понимание этой теории даст, вероятно, ключ к лучшему пониманию и КХД.
[Комментарии на Элементах]