6 августа 2007 г.

Вычисление роста жирафа из первых принципов

Какая замечательная статья появилась сегодня в архиве: The height of a Giraffe (кстати, автор известный астрофизик). В этой статье приводится оценка максимального роста живого дышащего существа на типичной обитаемой планете.

Ответ, полученный автором: h = a00.3, где a0 это боровский радиус, а γ -- во сколько раз электрическая сила между двумя протонами больше гравитационной. Численно, h примерно равно 3,6 метра.

Там есть еще и другие оценки, в общем, веселое чтиво :)
Единая теория всего уже, можно сказать, на подходе.

[Комментарии на Элементах]

29 июля 2007 г.

Лазерная запись на магнитные носители

Листая последние статьи из Phys. Rev. Letters, наткнулся на занятную статью All-Optical Magnetic Recording with Circularly Polarized Light (препринт статьи свободно доступен на странице одного из авторов). Хотел было написать новость, но потом увидел, что эта работа уже месяц назад прошла по многим сайтам (см. например, текст на CNews, на iXBT на Радио-свобода). И подана эта новость была, разумеется, с большими искажениями. ("Разумеется", это потому что никто ж не читал саму статью -- все переписывали в меру своего понимания вольное изложение из англоязычных источников, которые тоже саму статью вряд ли не видели в глаза, а основывались лишь на интервью с авторами.)

Практически все подали новость так, словно побит рекорд записи информации на жесткий диск. Это совершенно неверно. Удалось сделать совсем другое: уменьшить время записи одного бита на магнитной пленке с нескольких пикосекунд до 40 фемтосекунд. Причем осуществить это удалось без использования внешних магнитных полей -- только лазерным импульсом; в этом состоит научная новизна и ценность работы.

К скорости записи информации (т.е. сколько бит в секунду можно писать на ленту) это пока не имеет прямого отношения. В самом эксперименте импульсный лазер работал с частотой 1 кГц, так что больше 1 кбит в секунду этот эксперимент в принципе не мог ничего записать. Для того, чтоб писать со скоростью 1 Тбит в секунду (вот тогда можно говорить о стократных рекордах и о революции в записи данных), надо в миллиард раз увеличить частоту импульсов, т.е. в миллиард раз увеличить мощность лазера. Учитывая, что сейчас требуется порядка микроджоуля на один акт переключения, для этого потребуется мегаваттный лазер, сфокусированного прямехонько на плату жесткого диска. Сурово, не так ли?

На самом деле эта технология вообще вряд ли сгодится для жестких дисков. Скорее всего, она пойдет для магнитных лент. Во-первых, в этом случае нет необходимости механически перемещать саму головку, знай себе, протягивай ленту со скоростью в несколько километров в секунду и всё :)
А во вторых, автоматически ршается задача охлаждения магнитной ленты.
(Кстати, нагрев неизбежен, он является ключевым фактором самой технологии, поскольку луч вначале нагревает пятно почти до точки Кюри, где резко повышается магнитная восприимчивость, а затем поворачиает намагниченность.)

Ну и кроме этого для реального применения нужно существенно, на порядки, уменьшить размер пятна. Хотя непонятно, можно ли сделать существенно меньше микрона -- мешает дифракционный предел.

В общем, несмотря на прекрасный экспериментальный результат, надо понимать, что в теперешнем виде эта методика к современным информационным технологиям пока не относится. Однако при дальнейшем ее усовершенствовании можно будет в определенных ситуациях побить предыдущие рекорды.

А если вернуться их технологий в науку, то эта работа на самом деле задала больше вопросов, чем дала ответов. Потому что пока неясно, как за такое короткое время лазерный импульс с такой высокой степенью надежности передает направление своей полярзации магнитному домену. Т.е. может это через 10 лет будет работать у вас дома, но сейчас этим пока занимаются теоретики и экспериментаторы.

Кстати, справедливости ради стоит отметить, что CNews впоследствии написала новую заметку, где привела некоторые технические данные эксперимента.

[Комментарии на Элементах]

28 июля 2007 г.

Общая тенденция и резкие отклонения

В разговорах про глобальные климатические изменения люди часто смешивают две разные вещи: общую тенденцию и резкие локальные отклонения.

Типичный пример -- когда особо жаркий сезон считается в массовом сознании прямым проявлением глобального потепления. Казалось бы, это ж хорошо, когда люди видят климатические изменения своими глазами, значит они будут верить ученым. Нет, это не хорошо. Потому что особо холодная зима будет восприниматься таким же сильным аргументом против потепления (на эту тему есть даже карикатуры). Более того, если кто-то удосужится посмотреть на числа (климатологи обещают глобальное потепление на 2-3 градуса через сто лет, и это считается почти катастрофой), то ему это может показаться смешным -- "ну подумаешь, всего-то на какие-то три градуса больше! А они кричат, катастрофа, катастрофа. Обманывают, небось деньги хотят себе выбить и все."

На самом деле, конечно, в климате есть внутренняя переменчивость. Даже если бы глобальная температура оставалась постоянной, то аномально жаркие и аномально холодные сезоны в глобальном масштабе все равно случались бы. А если смотреть на региональный климат, то там амплитуда естественной переменчивости возросла бы еще в несколько раз. Это всё значит, что в региональном масштабе повышение или понижение температуры, скажем, на 10 градусов относительно средневекового значения в этот же сезон, например, в течение месяца вполне регулярно может происходить где-нибудь на Земле. Поэтому сам по себе такой выброс ни о чем не говорит.

Другое дело, если увеличивается частота аномальных сезонов или аномальных погодных условий в каком-то большом регионе (например, во всей Европе или во всей Северной Америке). Вот тут есть предмет для анализа. Скажем, в последние годы в Европе уже было две мощных тепловых волны на целый сезон. Это аномально жаркое лето 2003 года и аномально теплая осень 2006-зима 2007 года (которая считается самой теплой по крайней мере за последние 500 лет). Считается, что причины обоих эпизодов одинаковые -- мощный наплыв субтропических воздушных масс. Возникает вопрос, свидетельствует ли это об увеличении частоты аномальных погодных ситуаций? Связана ли это увеличение частоты с медленной общей тенденцией?

Однозначного ответа на эти вопросы, насколько я понимаю, пока нет. Конечно, существует "очевидный" источник увеличения частоты очень редких событий, если среднее значение чуть сдвинулось в сторону (особенно, при гауссовом распределении вероятностей). Однако моделирования показывают, что один лишь этот очевидный источник не может привести к существенному увеличению частоты редких событий на масштабе в 10-20 лет.

Возникает тогда другой вопрос: может быть, глобальные изменения касаются не только смещения "среднего", но и изменяют функцию распределения сезонов по "аномальности"? Т.е. может быть они меняют и амплитуду сезонной и региональной переменчивости?

Общий ответ такой: да, кое-где и кое в чем меняют, но во всем или нет -- пока неизвестно.

Например, моделирования показывают, что некоторые засушливые районы станут более засушливыми при небольшом повышении глобальной температуры, это уменьшит растительность, приведет к опустыниванию, а значит, усилит суточные и сезонные перепады температуры. Это пример одной из многочисленных петель обратной связи в климате. В результате климатические изменения в данном регионе будут усилены по сравнению с глобальными в несколько раз. Но делать вывод на основании этого, что жара 2003 года стала результатом деятельности человека напрямую нельзя.

Это я к чему. Сейчас вот в Англии продолжается мощное наводнение. А несколько дней назад в Nature появилась статья, в которой объявляется, что на масштабе в 75 лет обнаружено влияние человека на широтное распределение осадков. В северных тропиках среднегодовое количество осадков медленно понижается, а в высоких северных широтах -- растет.

А сейчас вот прочитал новость, в которой журналисты свели вместе эти две вещи и фактически заставили читателя думать, что в наводнении в Англии виноват человек. (Ладно, если бы журналисты это объявили от себя; так ведь они приводят ссылки на научную статьи, и тем самым заставляют читателей верить своим словам.)

Очевидно, что такой вывод ниоткуда не следует. Если посмотреть на данные, приведенные в статье, то видно, что вариации из года в год пока что превышают суммарный эффект накопленный за 75 лет.

Кстати, увеличивается ли частота редких по силе наводнений и засух, в этой статье не говорится. Вообще, надо почитать, что по этому поводу сказано в последнем отчете IPCC.

PS
Перечитал и мне показалось, что текст можно понять так, словно я тут пытаюсь убедить, что человек мало влияет на климат. Вовсе нет. Уже установлено вляние человека на хим. состав атмосферы, температуру воздуха, давления на уровне моря, высоту тропопаузы и т.д. Моделирования показывают, что если все так будет продолжаться, то (1) скоро во многих регионах начнутся серьезные экологические изменения, и (2) повышается вероятность резкого запуска сильных природных механизмов, меняющих климат (например, перестроится течение Гольфстрим).

Речь идет о том, что данные (пока?) не позволяют связывать единичные аномальные события с медленными тенденциями. Ученые это понимают, а массовый читатель -- нет.

[Комментарии на Элементах]

14 июля 2007 г.

Простота и сложность

Пост Игоря Шутяева в соседней дискуссии про "простоту и пестроту" напомнил мне об одном утверждении, которое я вычитал в каком-то математическом тексте.

Там говорилось, что в математике есть, говоря очень общо, две стратегии получения нетривиальных результатов.

  1. Либо вы берет простые объекты и манипулируете с ними сложным образом,
  2. либо бы строите новый сложный объект, описываете его свойства, и тогда даже простые манипуляции с этим объектом могут привести к нетривиальным результатам.

В первом способе вся сложность -- в длинных вычислениях; во втором способе вся трудность спрятана в характеристиках объекта, который вы изобретаете.

Чтоб не выглядело голословным, приведу пример. Есть такая теорема, называется малая теорема Ферма. Пусть p простое число, а n произвольное целое число. Тогда np-n делится на p.

Её в общем-то можно доказать в лоб, расписывая np как (1+1+...+1)p, разлагая на отдельные слагаемые и используя свойства биномиальных коэффициентов. Но с непривычки это большая морока! Однако если знать некоторые элементарные свойства теории (конечных) групп, типа порядка, подгрупп, орбит и т.п., то эта теорема становится почти тривиальной.

Т.е. умножение и сложение целых чисел -- очень простая наука, но чтоб с помощью лишь этого доказать малую теорему Ферма, придется попотеть. И от простоты в конце концов ничего не останется. А вот в теоретико-групповом способе доказательства вся внутренняя структура числа np-n, вся трудность спрятана в понятие мультипликативной группы вычетов по модулю p. Одно лишь построение этого объекта и понимание его свойств сразу приводит к интересным результатам. Но надо преодолеть барьер - сначала выучить основы теории групп.

Так вот, я это всё к тому, что в теоретической физике эти две стратегии получения новых результатов тоже прослеживаются (хотя, вероятно, не всё ими исчерпывается).

Можно стартовать с очень простых (по математической форме) уравнений, но по мере их решения будет возрастать вычислительная сложность. Так что необыкновенная простота формулы F=ma имеется только до того, как ты начал реально её использовать в нетривиальных ситуациях. Например в небесной механике, как правильно заметил Игорь Шутяев, никакой простотой и не пахнет.

С другой стороны, ту же механику можно строить и из вариационного принципа. Понять в деталях саму его формулировку для человека, не проходившего хотя бы годовой курс высшей математики (чем бы это ни было) и механики, очень трудно. Какая тут простота, если уже само понятие очень сложное? Так вот, простота начинается когда этот принцип начинаешь применять для получения результатов. Она заключается в том, что даже задачи в сложных ситуациях решаются примерно так же легко, как и простейшая задачка движения одной материальной точки в потенциале.

Вот эта простота -- гораздо более фундаментальная и гораздо более полезная простота.

Еще один пример этих двух подходов есть в книжке Фейнмана "КЭД -- странная теория света и вещества". Он говорит, что непривычные квантовые явления могут быть легко описаны на языке комплексных волновых функций и уравнения Шредингера, но если вы не хотите разбираться с этими математическими понятиями, то можно просто "поиграть в стрелочки" -- правда вывод тех же результатов (точнее, самых простых из них) будет несравненно более длинным.

Вообще, примеров можно приводить много. Например, те же квазичастицы -- тоже переход от простейших атомов к новым, более абстрактным (и на первый взгляд, более сложным!) степеням свободы. Но зато явления, наблюдаемые, например, в металлах, в жидком гелии и т.д., выражаются в терминах квазичастиц несравненно более простым способом.

Или вот пример из буквально сегодняшней физики. Есть теория КХД, а есть ее N=4 суперсимметричное обобщение. Переход к суперсимметрии резко повышает начальную сложность конструкции. Но как только эта сложность преодолена, то становится видно, что эта теория очень простая, гораздо проще самой КХД (это потому что в ней константа связи становится не бегущей, а фиксированной, т.е. появляется точная масштабная инвариантность; кроме того, у нее есть AdS/CFT соответствие, помогающее изучать рассяение в режиме сильной связи). Понимание этой теории даст, вероятно, ключ к лучшему пониманию и КХД.

[Комментарии на Элементах]

30 июня 2007 г.

Негравитация

Любителям всяческой экзотики рекомендую свежую статью arXiv:0706.3898, "Ungravity and Its Possible Test". Это коротенькая работа про еще одну возможность, которую могут реализовать элементарные нечастицы. А именно -- можно построить такую модель с нечастицами, в которой они порождают новую силу, пропорциональную массе тел. Т.е. приводят к добавкам в закон всемирного тяготения, и эти добавки могут оказаться очень необычными.

Теперь чуть подробнее.
Нечастицы -- это некие степени свободы, которые могут возникать в эффективных квантовополевых теориях. Отличительная особенность этих объектов -- их масштабная инвариантность; т.е. например, пропагатор нечастицы не содержит никакого параметра типа массы или ширины, а просто является степенной функцией квадрата импульса. Причем показатель этой степени не обязан быть целым числом -- из-за этого как раз и появляются необычные эффекты.

Поскольку нечастицы появляются в контексте эффективных теорий поля, их взаимодействие нечастиц с обычным веществом при низких энергиях описывается операторами, подавленными множителем (E/M)d, где E -- типичная энергия реакции, M -- энергетический масштаб рассматриваемой эффективной теории поля. Так вот, значение d тоже может быть дробным, и это тоже приводит к интересным эффектам.

В данной работе авторы предположили, что такой эффективный оператор может быть не скалярным, а тензорным, а значит он, в принципе, может быть связан с тензором энергии импульса (гравитация, напомню, тоже обеспечивается через связь с тензором энергии-импульса). А раз так, то между двумя гравитирующими телами может возникнуть новая сила, так же пропорциональная массе, но хитро ведущая себя с расстоянием. Она даст добавку в закон всемирного тяготения (которую авторы и назвали негравитацией), которая будет спадать с расстоянием по степенному закону, но вот показатель этой степени может быть дробным.

Именно благодаря этой особенности можно, в принципе, различить отклонения от закона всемирного тяготения на малых расстояниях за счет дополнительных измерений и за счет негравитации. Если конечно кто-нибудь эти отклонения найдет, в чем я лично сомневаюсь :)

На самом деле мне вообще непонятна осмысленность этих упражнений.
Подавляющее большинство статей в этой опупеи эпопеи про нечастицы вообще не задается вопросом, откуда такие объекты могут взяться; им главно посчитать какие-нибудь последствия. Только в некоторых статьях, например, arXiv:0705.3049, обсуждается возможное происхождение таких объектов. Но опять же, пока не доказано, что в какой-то эффективной теории поля такие объекты появляются естественными образом, серьезно о них говорить не приходится. Но, разумеется, если это пока не запрещено экспериментом, то считать можно всё, что душе угодно.

[Комментарии на Элементах]

27 июня 2007 г.

Основы палеоклиматологии

Заинтересовавшись климатологией, и в частности, палеоклиматом, я взял в библиотеке книжку R.S. Bradley, "Paleoclimatology" (1999 года издания), которую теперь почитываю в свободное время.

С одной стороны, это серьезная монография (одна лишь библиография занимает 80 страниц!), но с другой стороны, вводная, предназначенная для тех, кто не является специалистом ни в одном из разделов климатологии. В ней упор делается на довольно подробном описании "азбучных" вещей: самые разные методы датировки, анализ кернов льдов, морских отложений, континентальных наносов и т.д. Для каждого метода вначале описывается принцип (физический, биологический и т.д.), затем связанные с ним погрешности и неопределенности, затем приводятся имеющиеся данные и рассказывается, что можно из них почерпнуть. Очень интересно видеть, как одно и то же событие в палеоклимате прослеживается в самых разных данных, как из этих данных вырисовывается последовательность климатических изменений, какие сложные цепочки обратных связей есть в глобальном климате.

В общем, мне кажется, некий набор конкретных климатических знаний должен входить в естественнонаучный минимум, в общую культуру человека. Хотя бы для того, чтобы чувствовать элементарные зависимости и понимать то, о чем говорится в отчетах климатологов (например, я уже гораздо лучше понимаю новости Алексея Гилярова). Забавно то, что этот базовый материал оказался даже и нескучным вовсе.

А если кто хочет материал подоступнее, покороче и поновее, то очень рекомендую полный отчет IPCC, Working group 1. Это 433-страничный документ, раздитый на несколько файлов по главам. Я себе распечатал 60-страничную главу про палеоклимат, почитаю. А для совсем простого чтения рекомендую главу с ответами на часто задаваемые вопросы.

[Комментарии на Элементах]

25 июня 2007 г.

Северный Ледовитый океан задышал 18 миллионов лет назад

В Nature появилась занятная статья про историю глубинных вод Северного Ледовитого океана.

Суть такая.
Ключевым фактором, определяющим земной климат, как сейчас, так и в прошлом, является глобальный конвейер океанических течений. В этом конвейере самое важное и "хрупкое" место -- это образование холодных глубинных вод в Северной Атлантике и Северном Ледовитом океане. Теплое течение приносит из тропиков воду, она там остывает, испаряется, становится более соленой, ныряет на дно, обогащая придонные воды кислородом, и затем по дну возвращается назад. Этот процесс зависит от многих факторов, в том числе и от рельефа океанического дна. Но если история Атлантического океана в последние сто миллионов лет более-менее известна, то что происходило с Сев.Лед.океаном -- известно плохо из-за отсутствия данных.

Вообще, данные о климате на Земле в прошлом можно получать самыми разными способами. Если требуется заглянуть в прошлое на миллионы лет, то наиболее удобны керны (цилиндрические столбики пород) океанического дна, получаемые бурением. Теплые океаны бурят уже полвека, а вот до Северного Ледовитого добрались только недавно. В 2004 году был получен 428-метровый керн дна вблизи северного полюса, и сейчас вот публикуют результаты анализа этого керна.

В описываемой статье речь идет про 6-метровый кусочек (с 193 по 199 метров) керна, в котором происходят интересные вещи. Глубже этого места находятся отложения, бедные кислородом, выше -- богатые кислородом. Сам же этот кусочек состоит и большого числа чередующихся полосок то того, то другого. Поскольку отложения характеризуют общее состояние океана, то получается этот слой отвечает довольно краткому периоду перехода от застойного, бедного кислородом, озеро-подобного состояния в богатое кислородом, хорошо "проветриваемое" состояние. Этот переход, впрочем, произошел не одновременно, а сопровождался колебаниями туда-сюда.

Интересно, что удалось довольно точно датировать этот слой (~18,2 млн. лет назад), т.к. он содержит отложения специфических организмов, характерных именно для этой эпохи. Длительность периода (0,7 млн. лет) оценили просто по скорости накопления отложений.

Для того, чтобы разобраться с тем, что же случилось в то время, авторы построили модель изменения профиля океана за счет движения плит (десятки миллионов лет -- этот тот масштаб, когда плиты уже существенно смещались). И выяснили, что по всей видимости ключевым моментом стало открытие глубоководного пролива Фрама, проходящего по океанскому дну между Гренландией и Шпицбергеном. Этот пролив открыл глубоководное сообщение между Атлантическим и Северным Ледовитым океаном, т.е. включил его в конвейер и привел к эффективному перемешиванию вод.

Вообще, если посмотреть на карту этой области, то может показаться, что Северный Ледовитый океан и так прекрасно соединяется с Атлантическим через Баренцево море. На самом деле, это море очень мелкое, не более 500 метров, а для глубоких вод требуется пара километров.

Десятки миллионов лет назад Гренландия была существенно ближе к Европе, и тогда Северный Ледовитый океан был со всех сторон закрыт сушей или мелкими морями. Затем, когда открылся пролив Фрама, вначале узкий, через него пошла вода из Ледовитого океана (утверждается, что за счет простого гидростатического напора). Затем по мере расширения поток стал двунаправленный: в глубине поступала более соленая вода из Атлантики, а сверху вытекала менее соленая вода из Ледовитого океана.

Приток атлантических вод и обогатил кислородом глубины Ледовитого океана, поскольку внутри самого Ледовитого океана никакой особой глубинной конвекции не было. Однако из-за колебания уровня моря (порядка 15-30 метров в Миоцене) этот приток то исчезал, то появлялся вновь -- это и порождало полоски, то бедные, то богатые кислородом. И лишь когда пролив расширился достаточно (по оценкам авторов, 40-50 км уже хватит), там организовалась горизонтальная циркуляция вод. Приток атлантических вод стал бесперебойным и кроме того, не только глубинным, но и поверхностным. Это еще больше вовлекло Северный океан в глобальный конвейер и обогатило его кислородом. Так Северный Ледовитый океан задышал.

Авторы еще замечают, что этот момент примерно совпадает с так называемым климатическим оптимумом в среднем миоцене, но непонятно, какая связь между этими явлениями.

В Рунете уже есть несколько сообщений по этой работе (источником служит новость на Newscientist), но они, как водится, содержат ошибки (даже банальные переводческие -- например, никто так и не удосужился перевести Svalbard как Шпицберген). И еще не могу не поиздеваться над переводчиками. Как вам такая фраза:
"Около 20 миллионов лет назад Северный Ледовитый океан представлял из себя большое озеро, чья пресная вода попадала в Атлантический океан через тонкий пролив в его южной части."

Где у Северного Ледовитого океана южная часть? :) (на NewScientist написано: "...текут на юг через узкий пролив...")

Кстати, статья свободно доступна на домашней страничке одного из авторов (листайте вниз, последняя статья с гиперссылкой). В статье и в сопровождающих материалах есть красивые картинки :)

[Комментарии на Элементах]

21 июня 2007 г.

Ускорение радиоактивных распадов

В свежем Phys.Rev.Letters появились сразу две интересные статьи про то, как ускорить распад нестабильной частицы.

В одной из них, Radioactive Decay Speedup at T=5 K: Electron-Capture Decay Rate of 7Be Encapsulated in C60, описываются новые эксперименты с ускорением распада бериллия-7 внутри фуллерена.
Идея, вкратце, в том, что этот распад происходит за счет захвата электрона ядром, и значит, если электронную плотность вблизи ядра повысить, то и распад случится быстрее, правда ненамного, на доли процента. Подробности см. в новости Искусственное ускорение ядерного распада.

В новой работе показано, что при низких температурах (5 кельвинов) ускорение распада получается больше, чем при комнатной -- аж полтора процента. Это число, конечно, невелико, но возможно когда-нибудь путем еще большего увеличения электронной плотности вблизи ядра удастся существенно ускорить распад. Кроме того, благодаря этому явлению можно и просто изучить, как меняется распределение электронов в допированном фуллерене в зависимости от температуры. Бериллий-7 в этом случае выступает в роли "подарка природы" -- готового инструмента для определения величины электронной плотности.


Вторая работа не экспериментальная, а теоретическая, зато там речь идет про ускорение распада мюона аж в десяток раз, Laser-Assisted Muon Decay.
В ней приводятся вычисления скорости распада мюона в поле сильного лазерного излучения. Вообще, тот факт, что в сильных внешних полях изменяются свойства частиц, известно давно. Например, в случае облучения электрона лазерным лучом электрон начинает мелко метаться в пространстве под действием электромагнитного поля в световой волне, причем чем мощнее лазер, тем сильнее мечется электрон.

Мюон, как известно, тяжелее электрона почти в 200 раз, и поэтому там, где электрон метался бы сильно, мюон лишь лениво двигается туда сюда. Однако мюон хочет распасться на электрон и пару нейтрино/антинейтрино, поэтому электрон -- виртуальный! -- как бы тоже есть в мюоне, но только он ждет возможности "актуализироваться" (это все условные картинки, визуализирующие формулы, так что не надо их воспринимать как отражение реальности). Так вот, этот виртуальный электрон чувствует поле лазерного луча; оно ему помогает высвободиться.

В результате когда поля достигают значений 10^6 В/см, время жизни мюона начинает катастрофически уменьшаться. Теперь осталось это проверить экспериментально.

[Комментарии на Элементах]

8 июня 2007 г.

Документальный фильм про электрон

Сегодня при просмотре новостей взгляд буквально напоролся на вот это: Физики США сумели снять документальный фильм о движении отдельных электронов, который ссылается на ИТАР-ТАСС. Кроме этого в Рунете тот же текст появился на некоторых других сайтах, а также отдельное сообщение появилось и на сайте "Вокруг света" (В жидком гелии зафиксированы вихри). Поскольку я неравнодушно дышу на все, что мельче атома :), то не смог удержаться от комментария.

Начну с того, что текст ИТАР-ТАСС неправильный совершенно, и я надеюсь, это станет очевидным после моего объяснения. Такую ситуацию мы уже проходили: по-хорошему, надо разбирать и объяснять ошибочность чуть ли не каждой фразы, как это сделано в Анатомии одной новости, только времени это займет с десяток часов. Поэтому буду относительно краток :)

Во-первых, в описываемой новости следили не за электронами, а за пузырьками. Ну и по-хорошему, никакого видео там и не было. Скорость видеосъемки составляла 4 кадра в секунду, частота освещения короткой световой вспышкой 20 герц, вот и получалось, что на каждом кадре было несколько изображений пузырька, а на следующем кадре часто был уже другой пузырек (или вообще ничего).

Во-вторых, по большому счету, это есть всего лишь визуализация траектории частицы. Такой визуализацией траекторий электронов, протонов и других частиц физики занимаются уже почти век. По этой причине громкие слова о том, что-де впервые проследили за движением электрона, совершенно неверны. Впервые научились визуализировать пузырьки и жидком гелии -- это может быть, но и это надо понимать правильно. Дело в том, что судя по публикациям сами пузырьки с электроном внутри изучаются уже как минимум с десяток лет. Собственно, именно это физикам и нужно -- изучать, и не обязательно визуально. А тут их научились снимать на видеокамеру. В этом собственно и прогресс.

В-третьих, совершенно дикие фразы: "... считалось, что невозможно запечатлеть перемещения в пространстве отдельно выделенного электрона..." и затем "Но и невозможное оказалось преодолимым." За такие фразы надо бить по рукам, и я попробую объяснить, почему.

Неграмотная новость о научном исследовании приносит вред. Вред заключается в том, что читателю прямым текстом сообщают, что ученые занимают самопротиворечивыми вещами (типа "это считалось невозможным, но это сделали"). Или бессмыслицей (квантовая механика полна парадоксов и противоречий, и ученые, мол, сами не понимают то, что они изучают -- это вообще излюбленный штамп при описании квантовых явлений). Или занимаются никому не нужными детскими играми (смотрят на движение электронов). В результате из неграмотной новости читатель не видит никакого контекста (почти все конкретные работы -- лишь отдельные шажки на каком-то длинном пути), не видит никакой настоящей осмысленной цели, а видит лишь глупости, которыми балуются ученые. Более развернуто я про это уже писал в блогах: В чем вред от неправильных научно-популярных новостей, и заодно Не требуется быть всезнайкой.

Вот этот текст на ИТАР-ТАСС, растиражированный другими изданиями, как раз и подчеркивает: смотрите, какой лабудой занимаются физики.

В-четвертых, истинная цель исследования состояла вовсе не в "документальном фильме о движении электронов", а в разработке новой методики наблюдения за вихрями в сверхтекучем гелии. По-хорошему, тут надо сделать отступление про сверхтекучесть и трудности ее изучения, почему вихри в нем так интересны и т.д., но ладно, ограничусь только словами, что это большой и активный раздел физики квантовых конденсированных сред. Так вот, с экспериментальными методиками тут напряг, потому что гелий прозрачный, потому что сверхтекучесть -- хрупкое состояние, которое легко разрушить, поэтому визуализировать вихри трудно. Но можно -- это уже делалось другими методами, так что и тут слово "впервые" не годится. Однако эта методика довольно дешевая, потому ее надо развивать.

Исходно авторы хотели с помощью радиоактивного материала напустить много электронов, которые в своих пузырьках должны были рассесться вдоль вихрей и таким образом показать его форму. Этого пока не достигнуто, к этому они будут стремиться в будущих работах. Это и есть смысл этой деятельности. А пока что они просто сконструировали установку и погоняли видеокамеру без радиоактивного материала и обнаружили непонятно откуда взявшиеся электроны. (Они так и пишут -- мы не знаем, откуда они берутся).

Текст в "Вокруг света" более осмыслен, чем у ИТАР-ТАСС. По крайней мере, упор больше делается не на "документальном фильме про электрон", а на изучении вихрей (а это и есть конечная цель исследования). Но, конечно, ошибок и тут довольно много: вихри зафиксированы не впервые, открытие сделано не случайно, "следы взаимодействия электронов со средой" -- неправильно, сама интерпретация как наблюдение вихрей этим способом -- это пока только предположение, а не факт, и наконец совершенно неверная интерпретация волнообразного движения -- это вовсе не закручивание пузырька в потоке (сверхтекучая компонента не увлекает пузырек, на то она и сверхтекучая!), это его скольжение вдоль изогнутой оси (ось торнадо ведь тоже не всегда прямая). Плюс иллюстрация -- красивая, но сбивающая с толку.

В-пятых, возвращаясь к наблюдению электронов. На самом-то деле отдельные электроны уже 40 лет как наблюдаются невооруженным взглядом. Это стало возможно в 60-е годы в накопительных кольцах. Есть в сети очень захватывающий рассказ о том, как группа под руководством Бруно Тушека во Фраскати конструировала электронный ускоритель на встречных пучках (AdA:The First Electron-Positron Collider, pdf, 330 kb). Там рассказывается о том, как в первое время в накопительное кольцо впрыскивали буквально несколько электронов, и они там крутились, крутились, и время от времени высвечивали синхротронные фотоны. Можно было видеть, как мощность света растет или падает ступеньками, когда впрыскивается или уходит отдельный электрон. А в темноте можно было видеть (и сфотографировать на Polaroid) и свет от одного электрона. Это куда более прямой способ наблюдать за электронами.

Всем спасибо за внимание.

[Комментарии на Элементах]

3 июня 2007 г.

Нетривиальные квантовые эффекты в биологии

Наткнулся в архиве на любопытную статью ArXiv:0705.1232, "Нетривиальные квантовые эффекты в биологии: скептическая точка зрения физиков". Это небольшая заметка (с очень хорошей библиографической подборкой), написанная для готовящегося к выпуску сборника статей "Квантовые аспекты жизни".

Первое впечатление, возникшее после её прочтения -- удивление тем, как много, оказывается, существует попыток "притянуть за уши" квантовые явления для функционирования биологических систем. Причем зачастую эти попытки во многом базируются на обычной неграмотности, поскольку уже простые оценки по порядку величины закрывают некоторые предложения. В этой статье терпеливо и довольно подробно объясняется — по-честному, по-физическому, — почему те или иные предложения либо неверны, либо сверхспекулятивны.

Вначале, чтобы не было недоразумения, авторы четко очерчивают предмет критики. Конечно, квантовые эффекты в молекулярной (!) биологии важны -- это и динамика возбуждения биомолекул, туннелирование протонов и электронов и т.д. (например, есть основания считать, что обоняние использует, кроме всего прочего, и резонансное туннелирование электронов в рецепторах). Это все "очевидные" — тривиальные — квантовые эффекты, и относятся они скорее не к биологии, а к молекулярной физике.

Утверждение авторов статьи состоит в том, что никаких предпосылок для более нетривиальных квантовых проявлений в живых системах нет.

Ниже перечислены некоторые из попыток привлечь квантовую механику в биологических системах и их критика авторами статьи.

1. Возникновение наследственности

С "наивно-химической" точки зрения возникновение живых (а точнее, скажем проще, размножающихся и адаптирующихся) систем кажется чрезвычайно маловероятным. (Этот аргумент, кстати, любят использовать и проповедники религии.) Как из таких простых начальных соединений могли возникнуть такие сложные и высоко специфические молекулы как, например, ДНК? Как природа "нашла" удобные молекулы для передачи наследственной информации?

При попытке ответить на этот вопрос возникло предложение "как-то приплести" квантовую механику -- ведь в ней можно осуществить "сверхэффективный квантовый перебор вариантов" и относительно быстро найти молекулы, удобные для передачи информации.

На самом деле, это лишь ничем не подкрепленное желание, не более того. Никаких конкретных механизмов возникновения в системе тенденции к возникновению химической реакции синтеза какой-то редчайшей молекулы никто не предложил. И более того, это пока и не требуется, поскольку спонтанное усложнение хим. состава происходит в определенных условиях само собой. Самоорганизация -- спонтанное возникновение относительно устойчивых структур, гораздо более сложных, чем можно было бы получить за то же время случайным конструированием -- хорошо известное в физике явление.

В дополнение к этому авторы отдельно обсуждают распространенное заблуждение, что якобы квантовый компьютер позволяет осуществить быстрый поиск в классической базе данных. Это неверно: быстрый поиск работает только в квантовой базе данных, т.е. база данных уже должна находится в когерентном состоянии. Если этого нет, то квантовый компьютер не дает никакого ускорения.

2. Туннелирование сквозь промежуточные формы

Другой вариант той же идеи: оптимизация естественного отбора при эволюции простейших форм жизни в более сложные.

Как известно, одно из первых возражений к дарвиновскому принципу естественного отбора состояло в том, что не наблюдаются промежуточные формы. Как природа умудряется пропустить их и сразу "слепить новое существо"?

Этот вопрос уже не является каким-то принципиальным препятствием для современного эволюционного учения, но есть и более экзотические предложения, основанные, в частности, на том же квантовом поиске.

Пропоненты "квантовой идеи" говорят, что этот процесс можно представить как квантовый поиск живучей мутации. Однако -- кроме очевидного возражения о квантовой когерентности -- возникает и такой вопрос: непонятно, что именно должна искать природа. Мутация закрепится, если она окажется более приспособлена к выживанию во внешних условиях. Но на выживаемость надо проверить хотя бы пару-тройку поколений -- только после этого можно сказать, удачная мутация или нет. Т.е. получается, нужно чтоб квантовая когерентность поддерживалась не только в течение жизни одной особи, но и сохранялась между потомками. Но поскольку они будут взаимодействовать с окружающим миром, то это кажется совершенно невероятным.

3. Квантовый мозг

Есть попытки описать деятельность мозга как работу некоторого "квантового компьютера". Предполагается, что нейроны играют роль кубитов, между которыми поддерживается квантовая когерентность. При всей своей будоражащей воображение привлекательности это предложение сразу наталкивается на возражение: декогеретность объектов размером с клетку в обычных условиях (ведь нейроны в мозг находятся вовсе не в вакууме при сверхнизких температурах!) составляет порядка 10^(-20) сек. За это время не только не успеет пройти никакой сигнал, но и даже электронные облака едва успеют шелохнутся в самых активных химических реакциях.

Контрвозражение, что есть-де есть механизм коррекции квантовых ошибок, позволяющий устранить разрушающее действие декогеренции, несостоятелен, потому что порог, при котором этот механизм начинает действовать очень высокий. Ориентировочно, требуется, чтобы в каждом единичном акте квантовых вычислений вероятность ошибка составляла не более, чем доли процента, только тогда их можно скорректировать. Но для этого требуется, чтобы время когерентности было существенно больше хотя бы единичного акта квантового вычисления, что конечно в мозге не выполняется.

4. Квантовое сознание

Наконец, есть предложение, восходящее к Пенроузу, о том, что внутри полых трубочек, формирующих цикоскелет нейрона, происходит вызванный гравитацией(!) коллапс волновой функции. Этот коллапс, предполагается, приводит к ощущение самоосознания у высших жизненных форм.

Авторы эту идею, по-настоящему, не критикуют, замечая только, что она опирается на чрезвычайно спекулятивную, никак не проверенную связь между квантовой механикой и гравитацией. Авторы уделяют этому моменту много места, считая, по-видимому, что среди биологов (или просто не-физиков, интересующихся описанными вопросами) нет четкого понимания статуса разных теорий в фундаментальной физике.

Я тут замечу лишь то, что и в обычной нейронауке есть механизмы (связанные с незатухающими нелокализованными возбуждениями с сети нейронов, специфические для мозга с большой поверхностью коры головного мозга), могущие объяснить самоосознание. Конечно, эти предположения требуется проверять экспериментально, но по крайней мере они основаны на "кондовой" физиологии, а не на идеях о квантовой гравитации.

В общем, многие скептические утверждения, приведенные в статье, мне кажутся очевидными, но раз есть группа энтузиастов, которые их не учитывают, то подробное перечисление действительно полезно.

[Комментарии на Элементах]

13 мая 2007 г.

Адронные коллайдеры после LHC

В следующем году вступает в строй (на полную мощность) LHC. Большинство физиков сейчас потирает руки и предвкушает всякие разные данные с LHC, но отдельные дальновидные товарищи давно уже задаются вопросом: а что дальше?

В принципе, уже есть детальные планы на следующий ускоритель: линейный электрон-позитронный коллайдер с энергией в каждом пучке 0.5 ТэВ. Но линейный e+e- и адронный коллайдеры всё же имеют существенно разную программу исследований, поэтому уже сейчас хочется понять, можно ли будет построить протонный коллайдер с энергией больше, чем у LHC.

В Фермилабе сейчас проходит очередная встреча Fermilab Steering group, которая пытается понять, куда должна развиваться ускорительная физика в США в ближайшие годы. И один из докладов (High Energy Colliders, pdf, 1.1 Mb) был как раз посвящен планам на будущее, связанным с протонными коллайдерами сверхвысоких энергий.

Во-первых, описывается опция модернизации LHC с удвоением энергии (DLHC). Тут все просто: максимальная энергия LHC (7 ТэВ) ограничивается величиной магнитного поля в поворотных магнитах (8.33 Тесла). Никаких препятствий к дальнейшему ускорению протонов нет, но их просто нельзя будет удержать на орбите. Так что если магнитное поле увеличить вдвое, то соответственно возрастет и достижимая на LHC энергия пучков. Предполагается, что таких магнитных полей можно будет достичь с помощью нового магнита Nb3Sn, но потребуется еще с десяток лет, чтобы довести технологию до готовых ускорительных образцов.

Кстати, интересный пример взаимозависимости разных разделов физики: прогресс в материаловедении и физике конденсированных сред может привести к прорыву (открытию новых частиц?) в физике элементарных частиц.

Наверно, стоит пояснить, чем полезно увеличение энергии протонов.
Высокоэнергетический протон состоит из большого числа отдельных корпускул -- партонов. Когда сталкиваются два протона, то реально происходит столкновение двух партонов из встречных протонов. Число партонов вовсе не три, а значительно больше. Более того, число партонов с заданной энергией (скажем, 100 ГэВ) быстро растет с энергией родительского протона (от 7 ТэВ до 14 ТэВ). Поэтому увеличивая энергию протонов в пучке, мы не только можем рождать более тяжелые частицы, но и резко увеличиваем количество событий с умеренно тяжелыми частицами. Грубо говоря, если на LHC ожидалось, скажем, десять событий какого-то редкого типа, то в двойном LHC их будет уже несколько десятков.

Кроме удвоения энергии LHC сейчас рассматривается и возможность создание полностью нового коллайдера, условно называемого VLHC -- Very Large Hadron Collider. Идея состоит в следующем. Выкопаем полностью новый очень большой туннель, на это пойдет основная часть финансирования, а затем заполним его дешевыми и умеренно сильными магнитами.

Конкретный план предлагается такой. На террирории штата Иллиноис можно выкопать кольцевой туннель периметром 233 км и заставить его магнитами на 2 Тесла. При этом само устройство ускорителя, в частности, система охлаждения, а также его работа будет существенно дешевле, чем на LHC. Таким способом можно будет достичь энергии пучков 20 ТэВ, причем подчеркивается, что всё это возможно при уже существующих технологиях. Примерный план таков, что предварительный R&D может начаться около 2012 года, копание туннеля и монтаж -- около 2017 года, а в строй он вступит в районе 2024 года. К этому времени, LHC уже закончится, линейный электрон-позитронный коллайдер вероятно уже будет работать, а мюонный коллайдер еще нет.

Затем, если удастся получить магниты нужного качества (и стоимости) с магнитным полем выше 10 Тесла, в том же туннеле можно будет произвести модернизацию VLHC на энергию 100 ТэВ в пучке.

[Комментарии на Элементах]

12 мая 2007 г.

Пространство-время по Аристотелю и Галилею

Читая "The road to reality" Пенроуза наткнулся на очень интересное сравнение пространства-времени у Аристотеля и Галилея. Да, вот, оказывается и до Эйнштейна были интересные изменения в концепции пространства-времени :)

Не то, чтоб это совсем удивительная мысль, просто в таком ключе я никогда не думал. Вот, как известно, Аристотель считал, что "естественное" состояние вещей -- покой, а движение всегда вызывается какой-то внешней силой. Т.е. покою приписывается абсолютный смысл.

Сейчас мы умные, можем задать вопрос: покой относительно чего? Т.е. получается у Аристотеля есть выделенная система отсчета. Фактически, у Аристотеля есть понятие пространства как нечто "материальное", физически присутствующее, определяющее, что считается покоящимся, а что движущимся. Каждая точка аристотелева пространства-времени считается неподвижной, сохраняющей с течением времени свое положение.

Пенроуз сравнивает такое пространство с экраном, на который проецируют движущуюся картинку: не важно, какое действие на ней происходит, сами точки экрана сохраняют свою идентичность с течением времени.

Аристотелево пространство-время можно представить себе как стопку бумаги, насквозь натвердо проклеенную. Каждый слой бумаги есть пространство в данный момент времени, и с ходом времени мы перебираем слои один за другим. Переходя от одного момента времени к другому, мы видим неизменность пространства. У каждой точки пространства в одном слое есть соседние точки пространства в других слоях.

У Галилея пространство-время совсем не такое. Принцип галилеевой относительности утверждает, что невозможно ни в каком механическом эксперименте отличить прямолинейное равномерное движение от состояния покоя. Т.е. выделенная система отсчета исчезает, и вместе с ней неизбежно исчезает абсолютное, неизменное пространство. Т.е. если рассмотреть какую-то точку пространства в данный момент времени, то невозможно сказать, "где" эта точка пространства будет в следующий момент.

Пространство как нечто материально существующее исчезает. Можно сказать, что нет пространства, непрерывно живущего во времени. В каждый момент времени есть "свое" пространство, которое живет только в этот момент времени и тут же распадается. Спустя бесконечно малый промежуток времени перед нами уже другое пространство.

Представить такое пространство можно как стопку листов, которые никак не склеены, так что их можно произольно сдвигать друг относительно друга (линейные сдвиги есть просто переход в другую инерциальную систему отсчета), и при этом пространство останется все тем же пространством. Точки из разных слоев нельзя считать "соседними", потому что сдвинув слои, можно разнести их далеко. В математике есть удобный объект для обозначения: расслоение.

[Комментарии на Элементах]

11 мая 2007 г.

Времена и расстояния

Интересно, кто как сопоставляет для себя шкалу "типичных" времен и "типичных" расстояний? Вот например типичный короткий интервал времени в повседневной жизни человека -- это одна секунда. Какое примерно расстояние у вас ощущается столь же коротким, как и секунда? А какое расстояние вам кажется сопоставимым с одним часом?

[Комментарии на Элементах]

25 марта 2007 г.

Что надо понимать физику-теоретику?

В прошлой теме меня спросили: что должен знать физик-теоретик? Мою сугубо личную точку зрения я решил вынести в отдельное сообщение.

Во-первых, я хочу всё же подкорректировать вопрос. Принципиально важным является не то, что человек знает, а что он понимает. И самое главное требование к физику-теоретику -- всегда понимать, что он делает, как бы ни банально это звучало.

Среди людей, занимающихся теоретической физикой элементарных частиц, есть заметный процент людей, которые -- на мой взгляд! -- не отдают себе отчета в том, что именно они делают. Дело в том, что в теорфизике очень мало что можно посчитать точно. Очень часто вычисление можно "протолкнуть дальше", лишь сделав некое предположение о виде взаимодействия, форме волновых функций, асимптотическом поведении чего-нибудь и т.п.

И вот здесь требуется чутье. Хорошее предположение позволяет перепрыгнуть через барьер непреодолимых вычислений и узнать что-то новое о поведении системы. За такие предположения дают Нобелеские премии. А плохое предположение приводит человека к ситуации, когда он сидит, радостно вычисляет всё, что вычисляется, но не понимает, что всё это -- лишь биография его конкретного предположения, конкретной параметризации, и не имеет отношения к исходной физике.

И таких ситуаций довольно много, когда человек думает, что он вычисляет что-то физически полезное, а на самом деле копается в тонкостях своей параметризации, которая ничего по сути не проясняет. И человек публикуется, выступает с докладами, но не видит подмены понятий.

У меня как-то тоже был период, когда я увлекся параметризациями и их уточнением. Из вычислений и сравнения с экспериментами у меня вылезали какие-то забавные выводы, которые я даже озвучивал в докладах на конференциях. А потом я понял, что при желании могу, поизгалавшись над параметризациями, извлечь почти любой вывод из имеющихся данных. Так что я бросил все эти игры, поняв, что пользы от них всё равно нет.

Второе, что надо понимать -- что образование, полученное в универе по физике и по математике, составляет лишь порядка 10% от необходимого для того, чтоб только начать нормально работать в теоретической физике. Надо понимать, что в ближайшие 20 лет наверняка придется непрерывно образовываться. Немного неожиданно то, что этот процесс непрерывного образования (который, вроде как, подразумевает перманентное состояние недообразованности :) ) вовсе не противоречит возможности самому добывать новые крупицы знания в теорфизике.

Третье. Надо, конечно, в общих чертах понимать всю физику. Но именно понимать, а не знать назубок все формулы. Разумеется, изучать всего Ландавшица необязательно. Конкретные знания в той или иной области физики можно приобрести относительно быстро, имея это понимание.

Это, кстати, большая проблема для физиков, с университета недолюбливавших квантовые разделы физики и специализировавшихся на неквантовых направлениях. С течением времени намеки на понимание выветрятся, и этот "квантовый барьер" будет казаться всё более и более неприступным.

Нужно ли разбираться в эксперименте или нет -- я не знаю. Мне кажется, желательно, но обычно хорошее знание эксперимента не ведет ни к каким преимуществам в теоретической физике. Экспериментальную физику понимат полезно скорее для общенаучного образования.

Затем, отдельным пунктом добавлю, что нужно уважать современные разделы математики и понимать, что иногда очень тривиальная математика помогает там, где вычисления в лоб или "дедовские способы" физика-теоретика не работают. И относится это не к заумным теорфизическим задачам, а к самым стандартным расчетам.

Наконец, есть бич современного образования -- попытка свалить как можно большую часть вычислений компьютеру. Я уже говорил и скажу снова: все те вычисления, которые можно сделать своими руками, должны делаться руками. Польза от этого очень большая. Даже интегралы желательно пытаться брать руками: часто это дает понимание, какие именно области доминируют, какие сигнулярности важны, видно, как изменилось бы поведение интеграла, если бы функция отличалась так-то и так-то и т.п. К сожалению, есть много людей, которые считают, что незачем тратить время, машина всё сосчитает. Это очень вредно.

[Комментарии на Элементах]

22 марта 2007 г.

Факторизация чисел с помощью ядерного магнитного резонанса

В свежем выпуске PRL появилась очень забавная статья NMR Experiment Factors Numbers with Gauss Sums (она же quant-ph/0609174).

В ней авторы поставили ядерномагнитный эксперимент: облучали образец воды последовательностью радиочастотных сигналов определенной формы, потом измеряли отклик, и с помощью этого разлагали заданное число на простые множители.

Подробно всё рассказывается на примере числа 157573=13*17*23*31 (всё хорошо работает). Для примера показали также картинку с факторизацией числа 1062885837863046188098307, там их метод тоже работает, но не столь чисто. Подробности, как водится, авторы отложили для более длинной публикации.

Авторы говорят, что этот метод по сути классический, но возможно его можно будет адаптировать для квантовых вычислений.

[Комментарии на Элементах]