Наглая ложь статистики. Ложь, наглая ложь и… статистика

«Ложь, наглая ложь и статистика » (полный вариант: Существуют три вида лжи: ложь, наглая ложь и статистика , англ. There are three kinds of lies: lies, damned lies, and statistics ) - высказывание, приписываемое премьер-министру Великобритании Бенджамину Дизраэли , а известность оно получило благодаря Марку Твену после публикации «Главы моей автобиографии» в журнале North American Review 5 июля 1907 г. : «Цифры обманчивы, - писал он, - я убедился в этом на собственном опыте; по этому поводу справедливо высказался Дизраэли: „Существует три вида лжи: ложь, наглая ложь и статистика“». Однако этой фразы нет в работах Дизраэли. Также она не была известна ни при его жизни, ни вскоре после смерти. С точки зрения современных представлений наиболее вероятной кандидатурой на авторство является Чарльз Дилк (1843-1911).

Это высказывание, помимо Дизраэли, приписывали также и многим другим: журналисту и политику Генри Лабушеру (1831-1912) и Леонарду Кортни (1832-1918), который использовал эту фразу в 1895 году. Два года спустя он стал президентом Королевского статистического общества .

Сейчас известно, что впервые фраза использована в письме, написанном 8 июня 1891 года и опубликованном 13 июня 1891 года в National Observer(p.93(-94): NATIONAL PENSIONS London, 8th June, 1891): «Сэр, … очень остроумно замечено, что существует три вида лжи: первая - неправда, вторая - прямая ложь, и, наконец, самое страшное - это статистика». Чуть позже, в октябре 1891, в журнале Notes and Queries человек под псевдонимом «St Swithin» прислал вопрос об авторстве этой фразы, что указывает на ее широкое распространение уже в те дни. В октябре 1891, Charles W. Dilke, без какой-либо ссылки на автора, дважды использовал это высказывание. «Сэр Charles Dilke (1843-1911) на днях сказал, что, по его мнению, „ложь“ можно классифицировать по возрастающей степени, как: невинная ложь, ложь и статистика» (The Bristol Mercury and Daily Post, Monday, October 19 1891 г.). Dr. E.R.L. Gould, который использовал эту фразу в 1892 г., также ссылался на авторство Charles Dilke: "Сэр Charles Dilke в определенном смысле был прав, сказав: «Есть три уровня лжи, - выдумка, ложь и статистика …» .

Как упоминает Роберт Гиффен (Robert Giffen - помощник редактора журнала The Economist и в 1882-84 - президент Статистического Общества) в 1892 г., высказывание «о статистике» лишь интерпретация фразы «Есть старая шутка о том, что существует три вида лжецов: обычные обманщики, возмутительные лжецы и научные эксперты. Позже стали говорить несколько иначе: есть три степени лжи: ложь, бессовестная ложь и статистика». .

Возникновение оригинала («про экспертов») приписывают более раннему периоду, чем высказывание «про статистику», а именно в журнале Nature от 26 ноября 1885 г. (заметим, что Дизраэли к этому моменту уже умер) на 74 стр. находим: «…одному известному адвокату, в настоящее время - судье, пришло в голову разделить свидетелей на три группы: простые лжецы, проклятые лгуны, и эксперты».

Примечания


Wikimedia Foundation . 2010 .

Смотреть что такое "Ложь, наглая ложь и статистика" в других словарях:

    Самая точная из всех лженаук. Джин Ко Статистика может доказать что угодно, даже правду. Ноэл Мойнихан Статистика есть наука о том, как, не умея мыслить и понимать, заставить делать это цифры. Василий Ключевский Статистика все равно что купальник …

    Ложь бывает четырех видов: ложь, наглая ложь, статистика и цитирование. Не следует беззастенчиво лгать; но иногда необходима уклончивость. Маргарет Тэтчер Верь только половине того, что видишь, и ничему из того, что слышишь. Английская пословица… … Сводная энциклопедия афоризмов

    Гистограмма (метод графических изображений) У этого термина существуют и другие значения, с … Википедия

    Статистика - (Statistics) Статистика это общетеоретическая наука, изучающая количественные изменения в явлениях и процессах. Государственная статистика, службы статистики, Росстат (Госкомстат), статистические данные, статистика запросов, статистика продаж,… … Энциклопедия инвестора

    - (1835 1910 гг.) американский писатель Ад единственная действительно значительная христианская община во Вселенной. Банкир это человек, который одолжит вам зонтик в солнечную погоду и отберет его в тот самый момент, когда начинается дождь. Билл… … Сводная энциклопедия афоризмов

    Цитата: неверное повторение чужих слов. Амброз Бирс Цитата это риск под чужую ответственность. Владислав Гжещик Если тебя цитируют ты уже кто то. Если у тебя крадут ты человек выдающийся. Но настоящая слава начинается лишь тогда, когда тебе… … Сводная энциклопедия афоризмов

    Гарри Каспаров Гарри Кимович Каспаров Гарри Каспаров, 2007 год Дата рождения: 13 апреля 1963 (46 лет) Место рождения … Википедия

Чиновники правительства как могут работают над улучшением ситуации в стране и твердят: «Экономика набирает обороты», что непременно подтверждается цифрами.

Но возникает подозрение, что жить лучше и веселее нам становится лишь благодаря манипуляциям со статистикой. Корреспондент «МН» разбиралась, стоит ли полагаться на официальные данные и почему в последнее время доверять им все сложнее.

Росстат критикуют все кому не лень - от экспертов в области экономики и ученых до рядовых граждан, которые, слыша выкладки статведомства о размерах своих зарплат и инфляции, приходят в негодование: в первом случае - от высоких цифр, во втором - от низких.

Впрочем, как бы кто ни относился к статистике, «других писателей у нас для вас нет», а самому Росстату непросто собирать качественную информацию на фоне теневой экономики, приписок региональных чиновников-респондентов, секретных госрасходов, ухода предприятий и граждан от налогов, нелегального рынка труда и товаров.

Но даже с учетом объективных трудностей сбора данных определенные события, произошедшие вокруг Росстата за последнее время, наводят на нехорошие размышления - того и гляди статистика из инструмента оценки экономической реальности превратится в заурядного пропагандиста несуществующих успехов.

СНОВА-ЗДОРОВО

Подобные мысли начали возникать в апреле прошлого года, когда президент подписал указ о переводе главного статистического ведомства страны из структуры правительства РФ в ведение Минэкономразвития.

Случилось это после того, как Росстат резко раскритиковал глава этого министерства Максим Орешкин. По его словам, опубликованные в марте данные о динамике основных макропоказателей за февраль «нерепрезентативны» и требуют пересмотра.

Напомним, тогда Росстат сообщил об ухудшении положения дел в экономике. По данным статистиков, в феврале 2017 года промышленное производство в России по сравнению с тем же месяцем 2016 года снизилось на 2,7%, а в январе и феврале - на 0,3%. Росстат также отметил, что в феврале промпроизводство упало на 1,5% по отношению к январю, а реальные располагаемые денежные доходы населения снизились на 4,1% по сравнению с аналогичным периодом предыдущего года.

Почти сразу после этого появился проект постановления о передаче Росстата в ведение МЭР, а еще некоторое время спустя - соответствующий президентский указ. Эксперты тогда вынуждены были признать: с этого момента Росстат потерял независимый статус, ведь когда критика статистических выкладок исходит от ведомства, отвечающего за экономические прогнозы, дело вовсе не в качестве статистики.

МЭР и прежде было недовольно данными статслужбы. В январе 2002 года Аркадий Дворкович, отвечавший тогда в Минэкономразвития за макропрогнозирование, засомневался в правильности методики Росстата, по которой инфляция в «тарифный» месяц оказалась слишком высокой.

В 2004 году в ходе административной реформы Росстат перевели от правительства в подчинение к Минэкономразвития и торговли, однако после несогласия с таким решением тогдашнего главы Росстата Владимира Соколина через несколько месяцев снова вернули под управление кабмина. Еще через четыре года статистическое ведомство опять переподчинили Минэкономразвития, а в 2012-м, признав такой шаг неэффективным, вернули в подчинение правительства. И вот в апреле 2017-го у статслужбы снова сменился куратор.

Глава Федерации независимых профсоюзов России Михаил Шмаков предположил, что Росстат в новом статусе вынужден будет «лакировать истинное положение». С ним солидарен и экс-глава Федеральной службы госстатистики Владимир Соколин, на собственной шкуре испытавший все прелести подчинения МЭР:

«У министерства, которое является главным пользователем статистических данных, которое занимается составлением отчетов и прогнозов, появляется соблазн поруководить статистикой в нужном ему направлении. К сожалению, среди российских чиновников сегодня много фердыщенко, убежденных в том, что предназначение статистики - веселить начальниково сердце».

ИГРЫ В ЦИФРЫ

Как бы там ни было, сегодня мы имеем то, что имеем: МЭР, отвечающее за экономический рост, пользуется статистикой Росстата, а тот, в свою очередь, оценивает ведомство, которому же и подчиняется. Не потому ли данные о нашей экономике становятся все оптимистичнее?

18 июня Росстат опубликовал свежий пакет статистики по промышленности, в котором аннулировал данные, свидетельствовавшие о стагнации производства за последние 1,5 года. По новой оценке в прошлом году промышленность в России выросла не на 1%, а на 2,1% (в точном соответствии с прогнозом Минэкономразвития).

Данные по текущей ситуации были улучшены втрое: оценка роста за апрель поднялась с 1,3 до 3,9, а ускорение на май оценено в 3,7% - вдвое больше, чем в Евросоюзе, и на 0,3 процентного пункта выше, чем в США. Объемы выпуска в несырьевых отраслях - на фабриках и заводах обрабатывающего сектора - пересмотрены: вместо 0,2% - 2,5%. Разница - 12,5 раза.

Министр экономического развития Максим Орешкин объяснил такие метаморфозы получением годовых данных о малых и средних предприятиях и тем, что была уточнена статистика по крупному бизнесу.

Эксперты сразу засомневались в объективности новых данных. Изменение показателя роста вдвое без корректировок методик, а лишь в результате досчета они назвали перебором, попутно отметив, что либо вся методика расчета в промышленности, начиная от сбора первичной информации, никуда не годится, либо присутствуют манипуляции со статистикой.

КУДА КРИВАЯ ВЫВЕДЕТ

Что еще зафиксировал Росстат за последнее время? В мае этого года - рекордный за четыре года скачок уровня жизни!

Оказывается, реальные располагаемые доходы населения - сумма, которая остается на руках после вычета инфляции и всех обязательных платежей, - в апреле подскочили на 5,7%. В номинальном выражении россияне разбогатели на 8,2%, а реальный рост благосостояния с учетом инфляции стал рекордным с мая 2014 года.

За июнь текущего года резко выросли зарплаты. В среднем каждый работающий россиянин получил прибавку в 10,2% и зарабатывал в среднем 43 550 руб. в месяц. Согласно данным Росстата, оклады в больницах и поликлиниках подскочили на 30%, в школах и вузах - на 15%, в библиотеках, музеях и архивах - на 26%.

Как говорится, все чудесатее и чудесатее, при том, что большинство россиян никакого улучшения не заметило, а проведенный ВШЭ опрос показал: доля тех, кто ощутил улучшения, практически не растет - в марте таких было 13% против 10% год назад. Еще 27% и вовсе констатировали ухудшение материального положения, а РАНХиГС в своем майском мониторинге отметила, что почти все деньги люди тратят, а норма сбережений упала до минимума за 18 лет.

Статслужба продолжила радовать и своими прогнозами. Так, к концу первого этапа пенсионной реформы (к 2024 году) продолжительность жизни россиян возрастет на пять лет: у мужчин - до 73,3 года, у женщин - до 82,1. Примечательно, что по данным того же Росстата за 2017 год мужчины жили до 67,5 года, а женщины - до 77,6. Эти цифры усредненные, и, присмотревшись к ним внимательнее, окажется, что до 65 лет мужики доживали только в 37 субъектах Федерации из 85.

По данным Всемирного банка, в России самая высокая в мире смертность мужчин до 65 лет - 43%. Однако для готовящейся в России пенсионной реформы эти показатели не указ. Росстат сказал, что к 2024 году мужское население страны будет жить до 73 лет, значит, будет.

С демографией у нас тоже, к слову, все отлично. В прогнозе Росстата до 2035 года численность населения России определялась на уровне 2017 года (147 млн человек плюс-минус несколько процентов), а в июле 2018-го были обнародованы уже другие данные: к 2036 году ожидается увеличение численности населения до... 157 млн человек. За счет чего произойдет такой всплеск, не уточняется. Наверное, рожать начнем больше, а жить, как сказано выше, дольше.

Россияне уже давно оценивают жизнь своим мерилом и посмеиваются над официальной статистикой, но когда речь идет об управлении экономикой страны, то опора на официальные данные - совсем другое дело. Это все равно что вести корабль по неверным картам. Велик риск сесть на мель и разбить судно.

В российской статистике накопилось немало проблем. Чем дольше откладывается их решение, тем более искаженной будет картина окружающего нас мира.

Елена Хакимова.

Карикатура

А. Хорошевского.

Каков процент подтасовки статистических данных в научных работах по психологии, какие ошибки выявила программа проверки и чем она похожа на Т9, выяснил сайт.

Программы могут не только постмодернистские тексты песен, путь в Лондонском метро, моделировать процессы и в банке, но и искать ошибки в работах нечестных или невнимательных психологов. сайт рассказывает, как компьютер выявляет неточности в научных работах и к чему это может привести.

Блеск и нищета современной психологии

Балансируя между «житейскими мудростями» и философско-метафизическими категориями на тоненькой ниточке непротиворечивых данных, «наука о душе» постоянно подвергается опасности перегибов. Копаться во внутреннем мире людей (если не рассматривать анатомическую сторону вопроса) никогда не было просто, поэтому исследования психологов с трудом поддаются верификации. Имея очень субъективный предмет изучения, психология некоторыми своими отраслями и разделами пересекается с медициной и нейробиологией, а другими выходит за грань научного: даже доктор психологических наук и заместитель директора Института психологии РАН Андрей Юревич определил место психологии между наукой и паранаукой. Даже примененные по всем правилам научной методологии, подходы психологии порой не дают удовлетворительных результатов. Если в более тщательной и долгой работе с одним человеком можно предположить уникальность случая и заявить, что экстраполировать выводы на всех людей нельзя, то в большой группе трудно понять, какое в действительности значение имеют для каждого участника исследования унифицированные вопросы и ответы. К тому же, у испытуемых всегда могут быть внутренние причины скрывать какую-либо информацию и отвечать на вопросы не до конца честно. Поэтому рефлексию (обращение внимания человека внутрь себя) нельзя считать инструментом, позволяющим добыть абсолютно достоверную информацию. о компьютерном алгоритме, который выявил потенциальные ошибки в почти восьми тысячах психологических статей (и это только в период с 1985 по 2013 год и только в восьми научных психологических журналах) сработала как палка, разворошившая осиное гнездо, и без того неспокойное из-за постоянных споров. Под руководством Мишель Нюйтен было проанализировано 30 717 статей, из них 16 695 использовали статистические данные. В половине из этих работ была как минимум одна предполагаемая статистическая ошибка, на которую указала программа.

Когда исследование проводится на большой группе испытуемых, для обработки используются статистические методы. Популярное высказывание «существует три вида лжи: ложь, наглая ложь и статистика», авторство которого так туманно, что более ста лет назад Марк Твен приписал его Бенджамину Дизраэли (но уже не был уверен, откуда оно на самом деле пошло), не так уж далеко от истины. В области человеческого знания, где так сложно создавать теории, обладающие достоверной предсказательной силой (вспомните того же Зигмунда Фрейда или Альфреда Адлера), риск случайной ошибки и соблазн сознательной «подгонки» действительного результата под желаемый довольно высок.

Как компьютер «поймал с поличным» нечестных психологов

Программа, которая подтвердила справедливость этого ироничного наблюдения, называется Statcheck. Она анализирует P-значение (p-value) - величину, которую ученые используют для проверки статистических гипотез. Эта цифра показывает, насколько вероятен полученный результат, если нулевая гипотеза, лежащая в основе исследования, верна. В статье, которая была опубликована в журнале Behavior Research Methods, показано, что программа оценила достоверность более чем 258 000 p-значений (примерно 11 на каждую научную работу) за два часа, обнаружив, что 13% работ содержат ошибку, которая «переворачивает» полученные данные. В результате, например, P < 0,05 превращается в P = 0,05, или некоторые знаки после запятой просто отбрасываются, а не влияют на следующий знак по правилам округления чисел. Казалось бы, такое маленькое различие не должно серьезно влиять на результат, однако чаще всего P = 0,05 принимается как пограничное значение между статистически достоверным и недостоверным результатом. В итоге малейшее отклонение в одну или в другую сторону делает вывод в статье ложноположительным или ложноотрицательным.

Первоначально программа работала с литературой в целом, но один из соавторов исследования, Крис Хартгеринк, специалист по научной методологии из Тильбургского университета (Нидерланды), предложил сконцентрировать внимание на более специфических текстах - научных статьях. Он же позднее, в августе этого года, загрузил на проверку 50 000 статей и выложил результаты в Pub Peer (форум ученых, где они часто обсуждают вышедшие научные статьи), вызвав огромный резонанс в профессиональном сообществе. По мнению Хатгеринка, такие посты будут информировать авторов о возможных ошибках и «принесут науке гораздо больше пользы, чем просто свалка данных». С ним, как сообщает дискуссионная статья Монии Бейкер в Nature, согласны не все. Часть ученых, в том числе представители Немецкой психологической ассоциации, предупреждает, что ложноотрицательные результаты (здесь подразумевается исправление компьютером правильных данных на неправильные) могут скорее навредить репутации ученых, чем помочь развитию психологии как науки. Исполнительный директор Ассоциации психологических наук в Вашингтоне в ответ на публикацию заявил, что осуждает «повальное очернение» психологов в блогах и социальных медиа, явственно дав понять, что публикации результатов компьютерного анализа с указанием на возможные ошибки должны расцениваться как оскорбление.

Statcheck и P-value: кого в топку, кого в топ?

С другой стороны, подобные посты продвигают концепцию открытой науки (кстати, и Нюйтен, и Хартгеринк имеют награды от организаций, поощряющих развитие этого направления), которая позволит быстрее находить и корректировать статистические неточности. По мнению Ника Брауна, ученого-психолога из Университета Гронингема в Нидерландах, такие алгоритмы помогут только в том случае, если исследователи начнут читать их и оценивать с точки зрения специалистов, а не просто проникаться недоверием к журналу, опубликовавшему сомнительные статьи с ошибками.

На данный момент уже несколько тысяч человек, воодушевленных этой возможностью, бесплатно скачали эту программу, написанную на языке программирования R.

Однако Statcheck и сам может делать ошибки, как заявляет Томас Шмидт, критикуя программу . Например, она не всегда учитывает необходимые статистические погрешности и порой не может понять, что неверно в статье: P-значение или относительный параметр. Просканировав две статьи с большим количеством статистических данных, он обнаружил, что программа не смогла оценить 43 параметра, проверила 137 и определила 35 как «потенциально некорректные». Два из них оказались ошибками, не влияющими на результат, три были ошибками в других параметрах, не касающихся P-value, а остальные 30 оказались результатом «ложной тревоги».

Некоторые психологические журналы и вовсе начинают отказываться от p-value для проверки достоверности гипотез, считая этот параметр недостаточно надежным.

Сами создатели не отрицают, что их программа «никогда не будет столь же точна, как проверка вручную», но подчеркивают быстроту ее работы: если на проверку достоверности значения P-value одной средней психологической статьи уходит около десяти минут, то программа может справится с десятками тысяч в считанные часы, что незаменимо для проведения мета-анализа или первичной проверки присылаемых редакторам научных журналов статей. В этом качестве ее уже с июля этого года используют редакторы журнала Psychological Science. Они сравнивают эту программу с корректорами Word или T9, над нелепостью которых все смеются, но отказаться от них согласились бы немногие. Как и эти автокорректоры, Statcheck, по их мнению, можно считать «удобным инструментом, который иногда говорит глупости».

Есть выражение: «Ложь бывает трех видов- просто ложь, наглая ложь и статистика»
Вообще-то, статистика не нуждается в защите. Статистические методы успешно и даже победоносно применяются во всех видах разумной деятельности человека- от организации коммунального хозяйства до ядерной физики. И все-таки именно эта выдающаяся эффективность статистики является огромным соблазном использовать ее в чисто демагогических целях.
Есть такое заболевание эпилепсия, характеризуется поражением мозга, выражающееся в частых (иногда не слишком) приступах, в тяжелой форме выражающееся в судорожных припадках. В более легких (и гораздо более часто встречающихся) формах – это потеря сознания на несколько секунд или минут, без судорог и даже без падений.
Во время одного из моих заключений в сумасшедший дом, я, за небольшую плату: несколько пачек сигарет, кажется, переводил для одного из врачей небольшую книжку с английского. Книжка фактически представляла собой данные статистических исследований у детей, страдающих эпилепсией. Это была самая великолепная научная работа, которую мне приходилась читать. Определялся индекс интеллекта у разных групп больных детей школьного возраста. Группы составлялись по самым разнообразным признакам- степень заболевания, финансовое обеспечение семьи и так далее. Наибольший интерес представляло сравнение детей, обучавшихся в специальных школах для эпилептиков и в обыкновенных общих школах. Как и ожидалось, индекс развития (интеллекта) у детей в спецшколах оказался значительно ниже, чем у здоровых детей. Неожиданность возникла, когда определяли индекс у детей в обычных школах. Он оказался намного выше не только индекса таких же больных в спецшколах, но и выше, чем у здоровых детей, обучавшихся в тех же школах! Эпилептики оказались в числе первых учеников и отличников в своих классах! Кстати, это отлично совпало с давно известным фактом непропорционально большого количества эпилептиков среди выдающихся людей. Возьмем хотя бы Петра Первого и Достоевского. Желающие могут привести и другие примеры.
Объяснение неожиданного результата объяснить просто. Возникал «барьерный эффект». Больные дети, ощущая некоторую неполноценность из-за своих приступов, из –за детского стремления к соперничеству, стремились компенсировать ее усиленной учебой и делали это так успешно, что выходили в первые ученики! В спецшколах этого не было- все вокруг были такие же как они и соперничать было не с кем. Разумеется, спецшколы остались необходимыми для тяжелых больных, нуждающихся в постоянной помощи и наблюдении, но для более легких случаев они оказались не только бесполезными, но даже вредными. И Америка постепенно стала сворачивать свою превосходную сеть спецшкол.
Но вот вопрос- а зачем она ее вообще создала? Представьте себе, тоже на основании статистических исследований. Проводились обширные и многочисленные опросы врачей-специалистов, родителей и даже учеников. Все они высказывались в пользу создания таких учреждений. Однако все это было опрокинуто всего лишь одним маленьким исследованием- что-то около 500 случаев.
Статистика не виновата, просто в маленьком исследовании она показала реальное положение дел, тогда как в предыдущих исследований- степень заблуждения, профессионального и других, степень любви родителей, в общем, все что угодно, кроме фактического положения дел.
Недавно я услышал как один уважаемый профессор доказывал необходимость запрета показывать по ТВ «сцены насилия и убийства», и даже просто сообщений с описанием реальных преступлений тем, что 80% статистических исследований доказывают необходимость такого запрета. Так вот, он просто вешал вам на уши лапшу, а его «доказательство» некорректно. Что касается отдельных случаев, когда преступление совершается по образу и подобию киношных сценариев, так это вообще не может быть доказательством- возможно, на одного потенциального преступника, отождествляющего себя с киногероем- преступником, приходится десять, представляющих себя в роли жертвы, что привило им отвращение к убийству, и еще десять, избавившихся от чрезмерной беспечности и постаравшихся усилить свою безопасность и защиту.
А ведь при опросе, именно эти 20, испытавших неприязнь, выскажутся,скорее всего, за запрет.
Но это не имеет значение.
Опросите школьников относительно того, как они отнесутся к возможности не ходить в школу. Боюсь, что они будут в восторге.
Но разве это довод в пользу прекращения образования?

Рецензии

Конечно не довод.Я вообще считаю,что статистика это своего рода замануха для не знающих людей.Например:35% людей в России уже имеют в доме сосудомойку,50%нет,остальные не знают, что это такое.Так вот эти 50% думают:"А мы чем хуже". И процент у кого есть это "чудо техники" увеличивается.Вот и вся статистика

В формате «Точка зрения» ПостНаука знакомит читателей с мнениями наших экспертов об актуальных проблемах образования и науки. В новом материале мы попросили авторов проекта высказать свою точку зрения о том, насколько научны социологические опросы.
Кирилл Титаев - ведущий научный сотрудник Института проблем правоприменения Европейского университета в Санкт-Петербурге

Есть несколько отдельных историй про то, что такое научность и что такое опрос. Сначала следует различать социологические опросы и опросы общественного мнения. Опросы общественного мнения – это некая технология сбора информации о том, что люди готовы сказать, что они говорят вслух. При этом понятно, что люди могут врать, ошибаться, считать нужным сказать не совсем то, что думают, и так далее. Но это так называемое декларируемое общественное мнение, которое более или менее самоценно, то есть постороннему человеку, интервьюеру, люди готовы сказать, что они будут голосовать за того-то, что они так-то любят президента, что они так-то относятся к полиции и так далее. Это важно, и дает возможность для сравнения: в этой области столько-то людей утверждают, что они любят российскую полицию, а в этой столько-то.

Наряду с различением социологических опросов и опросов общественного мнения, есть еще три разных ответа на вопрос о том, насколько научны социологические опросы, в зависимости от того, как мы понимаем научность.

Первый вариант, когда наука – это исследования для фундаментальных результатов, а не для прямых распределений. Утверждение, что в Москве полиции доверяют 80% населения, а в Санкт-Петербурге, предположим, 60%, никакого отношения к науке, конечно же, не имеет. Никакого академического вывода, позволяющего производить какие-то научные знания, на этом основании сделать нельзя. И в этом плане большая часть публикуемых опросов общественного мнения в России, да и во всем мире, – это, конечно, никакая не наука. Это опросы общественного мнения и презентация некоторой картинки.

Вторая история, пересекающаяся с первой, – это вопрос о том, насколько они качественно сделаны. Здесь есть качественная выборка, то есть опрошенные люди, которые репрезентируют генеральную совокупность, например, «все население», «предприниматели», «избиратели» и так далее, в зависимости от того, кто нас интересует. Опрашиваемые, например, не пытаются нам выдать мнение предпринимателей или мнение избирателей за мнение всего населения. Есть масса технических аспектов, но в плане качества выборок подавляющее большинство крупных российских полстерских компаний, таких как Левада-Центр, ФОМ, ВЦИОМ и так далее, опросных фабрик, делают вполне научные, если говорить о качестве, опросы.

И наконец, есть еще одна история – это вопрос интерпретации. Дело в том, что когда люди в анкете, как говорил Крыштановский, «что-то наотвечали», это нужно каким-то образом интерпретировать. Что имели в виду люди, когда говорили, что они, например, доверяют полиции, или собираются проголосовать за Алексея Навального? Тут возникает масса технических тонкостей. Например, мы задавали вопрос «За кого вы собираетесь голосовать?» только тем, кто собирается идти на выборы или всем? Для электоральной социологии – это две принципиально разные картины. Мы задаем вопрос о доверии полиции только тем, кто с ней сталкивался или всем? Это тоже дает принципиально разную картину. Например, мы интерпретируем: «доверие полиции» - это означает, что люди считают, что она хорошая, считают, что она не нанесет им лично ущерба или имеют в виду что-то другое? Проблема социологических опросов состоит в том, что мы не можем дать широкий контекст вопросу, который задается респонденту. Мы вынуждены разово, узко его сформулировать и не всегда понимаем, что именно человек имеет в виду, отвечая на него. Задайте сами себе вопрос, «что вы имеете в виду, выбирая один из двух вариантов?»: «я считаю, что полиция, скорее, защищает меня» или «я считаю, что полиция, скорее, представляет опасность». Предположим, вы, отвечая на этот вопрос, имеете в виду некоторый баланс сил, а кто-то другой предполагает, что даже небольшая угроза со стороны полиции гораздо страшнее, чем угроза со стороны преступников, потому что полиция защищена законом. А кто-то третий просто ненавидит людей в серой форме (теперь уже почти в черной). Реконструировать эти контексты мы не можем. И работа по поддержанию качества, отслеживанию всех этих контекстов, в России поставлена очень плохо. В этом плане подавляющее большинство российских опросов общественного мнения, точнее выводов, которые делаются на их основании, более или менее ненаучны.

Виктор Вахштайн - кандидат социологических наук, профессор, декан факультета социальных наук МВШСЭН, декан Философско-социологического факультета Института общественных наук РАНХиГС, главный редактор журнала "Социология власти"

Представьте на секунду ситуацию, в которой астрология – это единственная возможная «методологическая база» астрономии или алхимия – химии. И даже не «методологическая база», а просто главный посредник между наукой и миром. У науки (в нашем мысленном эксперименте у астрономии) уже есть свой язык, которым она невероятно гордится, свои модели мышления о космосе и свои гипотезы, но нет (и, допустим, в принципе не может быть) никаких телескопов. Сформулировав некоторые предположения, астроном должен передать их человеку в высоком колпаке со звездами, который путем полумистических контактов с миром – вроде камлания на Большую Медведицу – выдает некоторый «эмпирический материал».

В описанном мной мире звездочеты будут всеми силами герметизировать свою специальность, делать ее непрозрачной с двух сторон – не только со стороны астрономов (настаивая на том, что правильно организованное камлание есть единственное условие истинности их научных предположений), но и со стороны обывателей (которые периодически норовят покамлать сами, без помощи квалифицированных специалистов, ритмично бьющих в бубен репрезентативности). Выгоды подобного посреднического положения трудно переоценить! Для астронома астролог – существо неприятное, но необходимое. Ведь он всегда «в контакте с миром» и, в отличие от астронома, эту Большую Медведицу «собственными глазами видит» каждый день. Для обывателя астролог и есть подлинный астроном. Поэтому от лица представляемой им науки он иногда берет «левые» заказы – покамлать за здоровье государя, за победу на скачках, за счастье новорожденного.

Единственное, что может угрожать положению звездочета – это конкуренция со стороны обывателей, которые не верят в то, что за спиной астролога стоит астроном. Они небезосновательно воспринимают астрологию как самостоятельную практику камлания, не имеющую прямого отношения к науке. С внутренней конкуренцией звездочеты уже как-то научились справляться. Например, одни в качестве бренда и конкурентного преимущества используют свое стремление к добру и веру в необходимость улучшения мира, вторые – умение красиво камлать на публике, третьи – особую близость к духам звезд. Но вот с конкуренцией со стороны обывателей справиться сложнее, особенно если те – не дай Б-г! – начнут камлать за победу на скачках и предскажут результат забега точнее, чем профессиональные астрологи. Без всякого бубна репрезентативности.

Что делать в описанной мной вселенной астрономам? То, что они делали и до этого – совершенствовать язык своей дисциплины. Тем же, кто не может не заглядывать в «эмпирическое окно» по долгу службы или по призванию свыше, придется осваивать камлание и бубен самим, без помощи посредников-астрологов. И да, чуть не забыл: никогда не камлать на победу в азартных играх.

Дмитрий Рогозин - кандидат социологических наук, директор Центра методологии федеративных исследований РАНХиГС, преподаватель факультета социальных наук МВШСЭН, старший научный сотрудник Института социологии РАН

Надо начать с того, что то, что у нас называется социологическими опросами, к социологии имеет весьма опосредованное отношение, и их корректнее разделять на разные группы. Первая - это электоральные опросы (то, что проходило сейчас в массовом порядке, когда выборы в разных регионах России сопровождались исследованиями, направленными на прогнозирование явки и доли политического участия в выборах). Такие опросы распространены во всем мире. Кроме того, есть так называемые социальные обследования (social survey), и слово "обследования" в данном случае специально употребляется в противовес к "исследованиям". У обследований всегда есть заказчик, какая-то социальная проблема, и основная задача специалиста, проводящего обследования, дать аналитический материал для людей, принимающих те или иные решения. В социальных обследованиях заказчиком выступает какая-то государственная структура, некоммерческая организация, поднимаются социальные вопросы. И третья группа – это маркетинговые исследования с конкретным бизнес-заказчиком, интересующимся ёмкость рынка, портретом потребителя продукции, эффективностью рекламной кампании и т.д.

Еще раз повторю, все это к социологии имеет только косвенное отношение: некоторые из тех людей, которые проводят подобные опросы, когда-то получили институционально социологическое образование, или пишут книги по социологии, или проводят уже социологические исследования. В качестве яркого примера можно назвать Пола Лазарсфельда, американского социолога, который еще в 30-х годах прошлого века говорил, что наука делается не в аудиториях, а в бизнесе. Сотни социальных обследований, маркетинговых опросов и т.д. Но социологом он стал не потому, что он эти обследования проводил, а потому, что он выстраивал теоретические конструкты, в том числе, по электоральному поведению. В чем, кстати говоря, ему помогал его ближайший друг и коллега Роберт Мертон. Важно понимать, что теоретические конструкты не имеют отношения к конкретным распределениям ответов и проблеме того, угадал ли кто-то выбор избирателей или промахнулся.

Если мы ведем речь не о социологии, а о массовых опросах, то лучше говорить не об их научности или социологичности, а об их валидности и надежности. Это не значит, что массовые опросы не могут быть научными, там тоже есть свои экспериментальные планы, гипотезы, исследовательские затруднения и проблемы. Например, экзит-полы можно проводить научным методом, а можно, следуя политической конъюнктуре, выполнять некоторый внешний заказ. Основным критерием научности или ненаучности социальных обследований, маркетинговых исследований, экзит-полов, электоральных опросов является не то, что их проводит уже зарекомендовавшая себя организация (нельзя сказать, что если опрос проводит «Фонд Общественное Мнение», Левада-Центра или ВЦИОМ, то это автоматически научно, а если волонтеры, то нет), а то, проводится ли в процессе таких исследований регистрация параданных, или сопутствующих основным распределениям данных.

В экзит-полах опросные центры должны регистрировать помимо того, за кого человек проголосовал, время, когда он ответил, точку, в которой он стоял (очень важно, какие потоки людей прошли мимо, и им не задали вопросы); из УИКа бывает несколько выходов – это одна ситуация; из вышедшей пары отвечает на вопрос только один человек – другая ситуация и так далее. Все эти ситуации нужно регистрировать, они и называются параданными. Какая-то незначительная часть параданных регистрируется и сейчас, например, количество отказавшихся ответить (эти данные помогают взвесить полученное распределение голосов). Но подавляющее большинство параданных пропускается опросными центрами. Поэтому я бы не слишком нагнетал ситуацию с критикой научности социальных обследований как таковых. Открытый вопрос – есть ли там наука? Другими словами, если центры, проводящие экзит-полы, начнут регистрировать сопутствующие данные, разбираться, как они коррелируют между собой, тогда опрос имеет шанс стать научным. Тогда у нас появляются дополнительные аргументы, чтобы отстаивать ту или иную точку зрения по поводу правильного или неправильного прогноза. Когда же сопоставление прогностических данных основано только на том, что опрос провел «Левада-Центр», ВЦИОМ или еще кто-то, это всего лишь политические спекуляции.

Я только отчасти согласен с разговорами о том, что «социологи» провалились, ведь те люди, которые проводят опросы, могли бы дискредитировать опросную науку, опиниологию, как говорил великий Ландберг, не тем, что они ошиблись в прогнозировании, а тем, что они не регистрирует параданные, не проводят научные исследования, а лишь прикрываются наукой, как некоторым легитимирующим их деятельность статусом, и вслед за политическими спекуляциями создают политические артефакты.

Виталий Куренной - кандидат философских наук, заведующий отделением культурологии ВШЭ, научный редактор журнала "Логос"

Социологические опросы - один из основных инструментов современной количественной социологии. Это отточенный в методологическом отношении инструмент (конечно, если используется с соблюдением соответствующих процедур), и ставить его научность под сомнение бессмысленно и наивно. Но, как и у всякого научного инструмента у него есть свои границы, собственно, эти границы и делают науку наукой. И с этой точки зрения я бы отметил несколько вещей. Во-первых, там, где речь идет о сциентизированных количественных исследованиях в современном смысле слова, решающим является повторяемость, а не исключения. Всякий раз, когда данные социологов расходятся, например, с результатами голосований, всегда находится кто-то, кто угадал правильно. Так вот, все эти угадывания никакого значения не имеют - сначала продемонстрируйте их повторяемость - пусть и с отклонениями, но именно повторяемость. А так можно и к гадалке сходить, да и в спортивных тотализаторах всегда кто-то выигрывает - к науке это отношения не имеет. Второе: ошибаться в науке нормально, тем, кто хочет безошибочности лучше к пророкам обращаться. Важно разобраться в причинах ошибки - вот и все. С этим, правда, у количественной, опросной социологии есть проблемы - она ведь не занимается причинами, тут нужны другие инструменты исследования.

Теперь в более критическом ключе два замечания. С одной стороны, надо понимать, что предметная категоризация, используемая в соцопросах - это некоторая воплощенная форма прагматики заказчика, как правило - прямое продолжение административно-управленческой логики политических сил. Социология же и рождалась как орудие управления современным обществом - далеко она от этого не ушла, разве что наряду с административно-политическим управлением сегодня все больше решает задачи управленческого воздействия на рынок - в форме маркетинговых исследований. Поэтому тут всегда есть разрыв между навязанной оптикой и реальными процессами и событиями. Это не повод, чтобы отказывать социологии в научности, но есть пространство для критического взгляда на всю эту научную аппаратуру в целом. С другой стороны, есть целый пласт внутренних методологических проблем проведения опросов, которые хотя бы в общих чертах хорошо бы представлять, прежде чем критиковать их результаты. Связано это с тем, что в самой процедуре опроса - начиная с формы вопроса и заканчивая фигурой интервьюера - неизбежно присутствует деформация реальности "как-она-есть-без-этого-опроса". Опросы не просто являются инструментом манипулирования как результат (само предъявление цифр, очевидно, кого-то поднимет с дивана, а кто-то на нем так и останется, хотя утверждал интервьюеру обратное), но и фактором деформации и трансформации в ходе самого исследования. Методологически можно и нужно стараться минимизировать эту деформацию, но исключить ее полностью никогда, видимо, не получится. Говоря совсем банально - социальное исследование меняет реальность, но не так, что результат такого изменения фиксируется опросом. Так что неожиданности здесь всегда возможны.