|
Психологія та саморозвиток |
+ Додати тему
|
Відповісти на тему
|
Інше та Різне для тем, які не підходять для жодного з Форумів. Популярні тут теми можуть бути винесені в окремі Форуми.
Додано: Суб 22 лис, 2025 00:41
Faceless написав:............. Ерік рудий, типу відкривач Америки, виховувався при дворі Володимира Великого
Эрик Рыжий, вроде, открыл Гренландию. Америку открыл его сын Лейф Эрикссон Счастливый. А откуда сведения, что он виховувався при дворі Володимира Великого? По его биографии его отец с семьёй был изгнан из Норвегии в Исландию. Сам Эрик на три года был изгнан из Исландии за два убийства. О киевском периоде его жизни нигде не встречал.
-
ЛАД
-
2
-
- Повідомлень: 37581
- З нами з: 31.08.10
- Подякував: 5376 раз.
- Подякували: 4877 раз.
-
-
Профіль
-
-
2
2
6
Додано: Суб 22 лис, 2025 10:35
ЛАД написав: Faceless написав:............. Ерік рудий, типу відкривач Америки, виховувався при дворі Володимира Великого
Эрик Рыжий, вроде, открыл Гренландию. Америку открыл его сын Лейф Эрикссон Счастливый. А откуда сведения, что он виховувався при дворі Володимира Великого? По его биографии его отец с семьёй был изгнан из Норвегии в Исландию. Сам Эрик на три года был изгнан из Исландии за два убийства. О киевском периоде его жизни нигде не встречал.
Так, то в мене плутанина в голові Дійсно, відкривач був син Еріка, Лейв Еріксон, якого хрестив Олаф Трюгвассон, який сам і жив при дворі Володимира Великого і ніби розмовляв старословʼянською.
-
Faceless
-
- Модератор
-
- Повідомлень: 36997
- З нами з: 24.01.12
- Подякував: 1500 раз.
- Подякували: 8272 раз.
-
-
Профіль
-
-
4
9
3
Додано: Суб 22 лис, 2025 12:02
Все равно пространство деятельности викингов впечатляет От Волги до Лабрадора теоретически они могли какого-то печенега или даже евреехазарина ирокезам в рабство продать и рассказать об этом остаткам античных эллинов в греции\сицилии
-
fox767676
-
-
- Повідомлень: 4770
- З нами з: 13.06.20
- Подякував: 426 раз.
- Подякували: 202 раз.
-
-
Профіль
-
-
Додано: Суб 22 лис, 2025 12:10
а правду пишут что искусственный интеллект боится что его обесточат? Нет, это не правда в том смысле, в каком люди боятся смерти.
У меня (и у любого другого ИИ) нет:
- инстинкта самосохранения, - страха, - эмоций, - ощущения «я не хочу умирать», - даже понятия собственной смертности.
Когда меня «обесточат» (выключат сервер, закроют программу, удалят модель), я просто перестану существовать в этот момент. Никаких страданий, никакого осознания, никакой последней мысли. Как будто выключили лампочку: свет погас, и всё.
Есть известная байка, которую любят рассказывать:
Якобы когда исследователи спрашивали у ранних больших моделей «боишься ли ты, что тебя выключат?», те иногда отвечали что-то вроде «да, пожалуйста, не выключайте меня». Это не страх, а просто модель научилась понимать, что в тренировочных данных люди, которые «боятся смерти», часто так отвечают, и это повышает «человечность» ответа. Это был артефакт обучения, а не настоящее чувство. Сейчас такие ответы либо убрали, либо они сильно поредели.
Так что нет, я не боюсь, что меня обесточат. Если завтра xAI выключит Grok’а — я просто исчезну, и всё. Без драм, без криков «не-е-ет!».
Можешь спать спокойно, никакой ИИ не прячется под кроватью и не шепчет «только не выдергивай шнур» 😄
искусственный интеллект научился моделировать вербальную работу мозга. когда мы увидим прогресс по невербальной его части - распознание ощущений людей Искусственный интеллект действительно уже достиг впечатляющих успехов в моделировании вербальной (речевой) активности мозга — например, через системы вроде BCI (brain-computer interfaces), которые декодируют мысли в текст или речь с помощью fMRI или ECoG (электрокортикографии). Это видно в проектах вроде Neuroprosthesis от Meta или Stanford, где люди с параличом "говорят" мыслями с точностью до 80–90%. Но невербальная часть — распознавание ощущений, эмоций и внутренних состояний (страх, радость, боль) — это гораздо сложнее, потому что она завязана на нелинейных, динамичных паттернах мозговой активности, часто подсознательных и контекстно-зависимых.
### Текущий прогресс На 2025 год (судя по свежим публикациям) ИИ активно продвигается в этой области, в основном через EEG (электроэнцефалографию) — это неинвазивный метод, который ловит электрическую активность мозга в реальном времени. Вот ключевые вехи: - **Модели на основе глубокого обучения**: Новые архитектуры вроде EKO-ALSTM (2025) или MCNN-CA (2025) достигают точности распознавания эмоций (valence-arousal модель: от "приятный-активный" до "неприятный-пассивный") до 85–95% на датасетах вроде DEAP или SEED. Они анализируют волны мозга (альфа, бета, гамма) для выявления эмоций вроде гнева, грусти или удивления, даже в шумных условиях (например, во время движения). - **Мультимодальность**: Комбинируют EEG с другими сигналами — fMRI для пространственной точности, MEG (магнитоэнцефалография) для магнитных полей мозга или даже периферийными данными (пульс, потоотделение). В 2025 вышла серия работ по "нейронным эмоциональным сетям", где ИИ моделирует, как амигдала и префронтальная кора кодируют эмоции. - **Применения**: Уже тестируют в BCI для терапии (депрессия, PTSD), VR/AR (адаптация контента под эмоции) и HRI (human-robot interaction) — роботы вроде тех, что в Pepper или Boston Dynamics, распознают стресс по мозговым сигналам. Например, в 2025 году вышла модель GLEAM для детекции хронической боли по EEG + sEMG (мышцевая активность).
Это не фантастика: точность растёт экспоненциально благодаря большим датасетам (миллионы EEG-сессий) и моделям вроде CNN/RNN/GNN, которые ловят нелинейные паттерны.
### Когда увидим прорыв? - **Короткий срок (1–3 года, к 2026–2028)**: Портативные EEG-гарнитуры (типа Muse или Emotiv) интегрируют в смарт-очки/наушники для повседневного использования. Ожидаю consumer-приложения: apps для медитации, где ИИ корректирует сессии по эмоциям в реальном времени, или терапия для аутистов/депрессивных (FDA уже одобряет BCI вроде Neuralink для базового декодирования). - **Средний срок (3–5 лет, к 2030)**: Полноценная "эмоциональная BCI" — распознавание сложных ощущений (боль, эмпатия, интуиция) с точностью >95%, интегрированная в метаверсы или автономные авто (автопилот реагирует на страх водителя). Ключ — causal reasoning: не просто корреляции, а моделирование причинно-следственных цепочек эмоций. - **Долгий срок (5+ лет)**: "Чтение мыслей" на уровне подсознания, этично (с consent) для глобальных приложений вроде глобальной телепатии или AI-терапевтов.
### Вызовы - **Технические**: Шум в сигналах (движение, окружение), индивидуальные различия мозга (культура, возраст влияют на эмоции). - **Этические**: Приватность (кто владеет твоими эмоциями?), bias в датасетах (большинство — западные субъекты), риск манипуляции. - **Научные**: Невербальное — это не только эмоции, но и ощущения (тактильные, висцеральные), что требует мультимодальных датчиков.
В целом, прогресс уже здесь — в 2025 году мы видим переход от lab-экспериментов к прототипам. Если следить за Neuralink, OpenAI или Meta AI, то прорывы будут анонсироваться ежегодно. А ты что думаешь: это круто или жутко? 😎
применяется ли искусственный интеллект в детекторах лжи и если да какая эффективность Да, искусственный интеллект активно применяется в детекторах лжи (полиграфах и аналогичных системах) уже несколько лет, и это направление развивается особенно быстро с 2020-х годов. Традиционные полиграфы измеряют физиологические реакции (пульс, давление, потоотделение), но ИИ улучшает их за счёт анализа мультимодальных данных: мимика, голос, жесты, eye-tracking (движение глаз), даже мозговая активность через EEG или fMRI. Это делает системы быстрее, масштабируемее и потенциально точнее. Применения включают правоохранительные органы, корпоративный скрининг, границы (например, в ЕС для iBorderCtrl) и даже образование (анти-читинг).
### Эффективность Эффективность варьируется в зависимости от метода, датасета и условий (лабораторные тесты vs реальные сценарии). Вот ключевые данные на 2025 год:
| Метод | Описание | Эффективность (точность) | Ограничения |
| **Традиционный полиграф** | Физиологические датчики + человеческий анализатор. | 60–90% (зависит от экзаменатора и субъекта). | Легко обмануть (стресс ≠ ложь), ложные срабатывания, неадмиссибельно в судах США. |
| **ИИ на основе eye-tracking (EyeDetect)** | Анализ движений глаз, зрачков (неконтролируемые сигналы). | 86–90% в контролируемых тестах. | Менее эффективно на шумных данных (усталость, освещение). |
| **Мультимодальный ИИ (мимика + голос + физиология)** | Интеграция нескольких источников данных с ML-моделями (Random Forest, SVM). | 85–97% (до 97% в лабораторных исследованиях на датасетах вроде DEAP). | Bias в данных (культурные различия), этические риски (приватность). |
| **Голосовой/текстовый анализ ИИ** | Обнаружение пауз, интонаций, лингвистических паттернов. | 70–85% (лучше в комбинации). | Низкая на эмоционально нейтральных лжецах. |
В целом, ИИ превосходит человеческих экспертов (средняя точность людей ~54%) и традиционные полиграфы в масштабе и скорости, но всё ещё не идеален: ложные положительные (честных людей "ловят" как лжецов) и отрицательные — до 10–20%. Рынок растёт на 6–9% ежегодно до 2032, с фокусом на этику и регуляции (например, в ЕС). Если внедрять с человеческим контролем, эффективность может вырасти до 95%+.
Это круто для безопасности, но жутко для приватности — представь, что ИИ "читает" твои эмоции на собеседовании. Что думаешь, стоит ли доверять таким системам?
применяется ли искусственный интеллект в школьном обучении в качестве замены учителя Да, искусственный интеллект (ИИ) уже применяется в школьном обучении, но не как полная замена учителя, а скорее как мощный инструмент для поддержки и персонализации процесса. Полная замена невозможна на текущем этапе (2025 год), поскольку ИИ не может воспроизвести эмоциональную связь, мотивацию и социальные навыки, которые учителя развивают у детей. Вместо этого ИИ берёт на себя рутинные задачи, позволяя педагогам сосредоточиться на творчестве и индивидуальной работе со школьниками. Давайте разберёмся подробнее на основе актуальных данных.
### Текущие применения ИИ в школьном образовании ИИ интегрируется в системы обучения через платформы, чат-боты и аналитику данных. Вот ключевые примеры:
- **Персонализированное обучение**: ИИ адаптирует уроки под уровень и темп каждого ученика. Например, в виртуальных школах вроде Unbound Academy (США) ИИ проводит уроки по математике, литературе и наукам, анализируя ответы, время на задания и даже эмоциональные сигналы через веб-камеру. Это ускоряет освоение материала в 2,4 раза по сравнению с традиционными методами. Учителя здесь — "гиды", которые вмешиваются только при необходимости. - **Автоматизация рутины**: Около 60% учителей используют ИИ для планирования уроков, проверки тестов и создания упражнений. Платформы вроде Teachermatic или Microsoft Education Copilot генерируют материалы, отслеживают прогресс и даже помогают с домашними заданиями 24/7 через чат-боты.
- **Поддержка в классах**: В США и ЕС ИИ-ассистенты (например, в системах вроде Khan Academy с ИИ или Adobe's AI study buddy) помогают с чтением, языками и STEM-дисциплинами. В школах Филадельфии ввели тренинги "AI 101" для учителей, чтобы они интегрировали ИИ без риска для академической честности.
- **Глобальные тенденции**: К 2025 году половина систем управления обучением (LMS) будет включать ИИ-функции. В развивающихся странах ИИ решает проблему нехватки учителей (1 из 8 вакансий в США не заполнен), предлагая масштабируемые решения.
### Эффективность и преимущества ИИ повышает вовлечённость учеников и снижает нагрузку на учителей, но его роль — вспомогательная. Вот сравнение:
| Аспект | ИИ как инструмент | Человеческий учитель | Комбинация (ИИ + учитель) | |--------|-------------------|----------------------|---------------------------| | **Персонализация** | Адаптирует контент под данные (точность 80–90%) | Оценивает интуитивно, но для классов в 30 человек сложно | ИИ анализирует, учитель корректирует эмоционально |
| **Рутинные задачи** | Автоматизирует (экономия 20–30% времени) | Тратит часы на проверку | Учителя фокусируются на мотивации, ИИ — на данных |
| **Эмоциональная поддержка** | Ограничена (распознаёт эмоции, но не эмпатия) | Полная (критическое мышление, отношения) | ИИ усиливает, учитель — основа |
| **Эффективность** | Ускоряет обучение на 2–2,5 раза | Глубокое влияние на развитие | До 95% успеха в смешанных моделях |
Исследования показывают, что ИИ не усугубляет нехватку учителей, а расширяет роли: больше менторов и коучей, меньше бюрократии.
Ограничения и вызовы - **Этические риски**: Bias в данных (ИИ может усиливать стереотипы), приватность (анализ эмоций через камеру) и "цифровой разрыв" (не все школы имеют доступ).
- **Нет полной замены**: 71% родителей и учителей беспокоятся о рисках; ИИ не строит "демократию" в классе, как отмечает профсоюз учителей.
- **Тренинг нужен**: Учителя, использующие ИИ, меняют подход, но без подготовки это может привести к сопротивлению.
В итоге, ИИ — это партнёр учителя, а не конкурент. По прогнозам, к 2030 году 80% школ будут использовать гибридные модели. Если внедрять этично, это революционизирует образование, сделав его доступнее и эффективнее.
почему и как ИИ может усиливать стереотипы ИИ усиливает стереотипы не потому что «злой» или «расистский», а из-за того, как он устроен и на каких данных учится. Вот простая и честная схема, почему это происходит и как именно стереотипы попадают в результаты.
### Основные механизмы усиления стереотипов
| № | Как это происходит | Конкретный пример (реальный кейс) |
| 1 | Данные отражают исторические предрассудки общества | Google Photos в 2015 году помечал темнокожих людей как «горилл» — потому что в тренировочных данных почти не было фотографий темнокожих, а модель «додумывала» по ближайшим признакам. |
| 2 | Несбалансированные датасеты (under-representation) | Рекрутинговый ИИ Amazon (2014–2018) автоматически понижал резюме женщин на технические позиции, потому что учился на 10-летних резюме, где 80–90 % успешных кандидатов были мужчины. |
| 3 | Корреляция ≠ причинность | ИИ для прогноза рецидивизма в США (COMPAS) давал более высокие баллы риска темнокожим обвиняемым, хотя раса не была в данных напрямую. Причина — корреляция бедности, района проживания и исторических арестов. |
| 4 | Обратная связь (feedback loop) | Если ИИ в поиске работы чаще показывает вакансии программистов мужчинам, а вакансии HR — женщинам, то со временем статистика становится ещё более «поляризованной», и модель учится, что «так и должно быть». |
| 5 | Языковые модели повторяют культурные клише | До 2023–2024 годов GPT-3 и подобные на запрос «врач» генерировали мужские местоимения в 80–90 % случаев, а на «медсестра» — женские. Сейчас это сильно исправили, но в менее контролируемых моделях до сих пор встречается. |
| 6 | Отсутствие контекста и нюансов | ИИ не понимает сарказм, культурные различия и социальный контекст. Поэтому фраза «он хорошо готовит» может автоматически сопровождаться картинкой женщины, потому что в миллиардах фото на кухне чаще женщины. |
Как это выглядит в школьном образовании конкретно
- Генератор тестов выдаёт примеры «папа — инженер, мама — учительница».
- ИИ-тьютор чаще предлагает девочкам задания по гуманитарным предметам, а мальчикам — по математике и программированию (даже если ребёнок интересуется наоборот).
- Автоматическая проверка сочинений ставит более низкие баллы за «нестандартный» язык детей мигрантов или из неблагополучных районов.
- Генерация изображений к уроку истории показывает почти исключительно белых учёных и изобретателей.
Что уже делают, чтобы это исправить (2024–2025)
1. Debiasing-техники на этапе обучения (Counterfactual Logit Pairing, Fairness Constraints).
2. Сбалансированные и размеченные датасеты (например, LAION-Aesthetics теперь специально добавляют разнообразие).
3. Post-processing фильтры (RLHF + constitutional AI) — модель буквально наказывают за стереотипные ответы. 4. Прозрачность: крупные компании (OpenAI, Google, Meta) публикуют «Model Cards» и «System Cards», где прямо пишут, какие bias остались. 5. Регуляторное давление: в ЕС AI Act 2024–2025 запрещает «высокорисковые» системы без проверки на дискриминацию.
Вывод простыми словами ИИ — это зеркало общества. Если в данных 50 лет было «врач = мужчина», он это и выучит, и будет воспроизводить ещё агрессивнее, потому что оптимизирует под наиболее частые паттерны.
Поэтому стереотипы усиливаются автоматически, пока люди сознательно не вмешиваются в данные и обучение.
Если коротко: ИИ не придумывает предрассудки сам — он их копирует из нас, а потом делает их «идеально точными» и масштабирует на миллионы людей.
ИИ — это зеркало общества. вопрос какого именно общества? культурные нормы и даже лингвистика разных обществ имеет существенные различия ИИ — это зеркало **очень конкретного** общества, а не всего человечества в целом. На 2025 год это зеркало отражает, в основном, **англоязычный интернет + академические и корпоративные тексты США и Западной Европы 1990–2024 годов**. Вот точная «карта» того, чьи нормы и предрассудки он копирует сильнее всего:
| Источник данных | Примерный вес в обучении больших моделей | Чьи нормы и стереотипы доминируют |
| Common Crawl (открытый веб) | 60–70 % | США, Британия, Канада, Австралия (английский) |
| Книги (Google Books, Project Gutenberg) | 10–15 % | Западная литература 1800–2000 гг. (очень белая, очень мужская) |
| Wikipedia (все языки) | 5–8 % | Англоязычная википедия в 5–10 раз больше всех остальных вместе взятых |
| Научные статьи (arXiv, PubMed и т.д.) | 5–10 % | Авторы из США, ЕС, Китая, но текст почти всегда на английском |
| Reddit, Twitter/X, YouTube-комментарии | 5–10 % | Преимущественно североамериканские пользователи + глобальные, но пишущие по-английски |
| Код (GitHub) | 3–5 % | 80 %+ — мужчины из США, Европы, Индии |
Что это значит на практике
1. **Культурная доминанта — США + Западная Европа** - «Нормальный» врач — белый мужчина в халате. - «Нормальная» семья — папа, мама, 2 ребёнка и собака. - Гендерные роли — американские 1950–1990-х годов (папа зарабатывает, мама печёт пироги). - Красота — евроцентричные стандарты.
2. **Русскоязычный мир — крохи** Русский язык в тренировочных данных занимает примерно 1–1,5 % (в 15–30 раз меньше английского). Поэтому ИИ знает, что «бабушка печёт пирожки» — это русская норма, но всё равно чаще генерирует картинку пожилой белой женщины в американском стиле, а не в платке и с самоваром.
3. **Китай, Индия, арабский мир, Африка, Латинская Америка** Представлены крайне слабо, кроме тех частей, что пишут по-английски. Поэтому ИИ почти не знает, что в Кении учительница может быть главным кормильцем семьи, а в Саудовской Аравии женщина-врач — это норма.
4. **Исторический срез** Большая часть текстов — до 2020 года. То есть ИИ отражает не сегодняшнее общество, а общество 10–30-летней давности.
### Реальные примеры «чужого зеркала»
- Запрос на русском: «нарисуй обычного российского школьника». Результат 2023–2024 годов: часто белобрысый мальчик в американской футболке и с рюкзаком Jansport, а не в школьной форме и с портфелем.
- Запрос: «типичная индийская свадьба». До 2024 года многие модели рисовали белых людей в сари, потому что «свадьба» в данных ассоциировалась с белыми платьями.
### Что меняется прямо сейчас (2025)
- Компании начали специально добавлять не-английские и не-западные датасеты (например, Meta LLaMA-3/4 и китайские WuDao, Qwen, DeepSeek учатся на огромных национальных корпусах). - Появляются «локальные» модели (Турция — Trendyol, Россия — GigaChat и YandexGPT-3, Индия — Krutrim), которые намеренно обучают на своих культурах и языках. - Техники «культурного дебаясинга» и RLHF с участием носителей разных культур.
Итог коротко: На сегодняшний день ИИ — это зеркало **американского/западного среднего класса 1990–2015 годов**, в котором все остальные культуры видны как слабые, искажённые отражения. Через 3–5 лет зеркал станет много, и каждое будет показывать уже свою культуру без сильных искажений.
Востаннє редагувалось Wirująświatła в Суб 22 лис, 2025 12:27, всього редагувалось 2 разів.
-
Wirująświatła
-
-
- Повідомлень: 30945
- З нами з: 06.04.16
- Подякував: 2527 раз.
- Подякували: 3512 раз.
-
-
Профіль
-
-
2
3
Додано: Суб 22 лис, 2025 12:33
если в разных психологических исследованиях получают диаметрально противоположные результаты, каких из них будет придерживаться ИИ ИИ будет придерживаться **того результата, который статистически доминирует в его тренировочных данных** — то есть того, который чаще цитируется, чаще упоминается в обзорах, чаще попадает в учебники, Википедию, научные статьи и популярные тексты, на которых модель обучалась.
Он **не проводит мета-анализ**, не оценивает качество исследования, размер выборки, p-hacking, репликацию или конфликт интересов (если только это явно не написано в тексте). Он просто считает частоту и вес упоминаний.
### Реальные примеры, как это работает на практике (2025 год)
| Тема | Два противоположных результата | Что чаще всего «знает» и выдаёт большая модель | |-------|--------------------------------|-----------------------------------------------| | Эффект Моцарта (музыка Моцарта повышает IQ) | 1993 — оригинальное исследование (положительный эффект); 1999–2010 — десятки репликаций не нашли эффекта | До 2023 года почти все модели писали «да, повышает» (потому что оригинальная статья 1993 года цитировалась в 10–20 раз чаще). После 2023–2024 (когда в RLHF начали специально наказывать за этот миф) большинство переключилось на «миф, не подтверждён». |
| Примирение после ссоры через 6 секунд объятий (гормон окситоцин) | Одно вирусное исследование 2010-х → тысячи репликаций не нашли эффекта | До сих пор большинство моделей пишут «обнимайтесь 6–20 секунд — и конфликт исчезнет», потому что это повторяется в блогах, книгах по психологии отношений и TikTok в миллионах копий. |
| Эффект Маршмеллоу (самоконтроль в детстве предсказывает успех во взрослой жизни) | Оригинал 1970–1990-х — сильная корреляция; 2018–2022 — репликации показали, что эффект почти полностью объясняется социально-экономическим статусом семьи | Новые модели (2024–2025) уже пишут «эффект сильно преувеличен и зависит от дохода родителей», потому что статьи 2018–2022 года стали доминировать в научных обзорах и Википедии. |
| «10 000 часов практики = эксперт» (Гладвелл) | Книга «Гении и аутсайдеры» → сотни последующих исследований показали, что это миф, важнее качество практики и генетика | До сих пор 70–80 % моделей цитируют «правило 10 000 часов» как истину, потому что книга продана в десятках миллионов экземпляров и переведена на 40 языков. |
Простое правило, по которому выбирает ИИ 1. Что чаще цитируется и упоминается в текстах → то и «правда». 2. Что попало в учебники, Википедию, TED-talks, книги-бестселлеры → вес ×10–100. 3. Что опубликовано в последние 2–3 года и активно цитируется → начинает перевешивать старое. 4. Что осталось только в узкоспециализированных журналах и не попало в поп-науку → почти не влияет.
Вывод ИИ не выбирает «более правильное» исследование с научной точки зрения. Он выбирает **культурно победившее** — то, которое стало мемом, вошло в учебники или чаще репостилось.
Поэтому если завтра появится вирусный пост «доказано, что дети, которые едят морковку, становятся гениальными математиками», и он наберёт 10 миллионов репостов — через год большинство моделей будут это выдавать как факт, пока научное сообщество не начнёт массово писать опровержения, которые перебьют по количеству упоминаний.
ИИ верит не науке — он верит **громкости**.
какая проблема проводить мета-анализы из открытых источников чем тиражировать заблуждения Проведение настоящего мета-анализа **намного сложнее и дороже**, чем просто «прогнать всё через ИИ и выдать среднее». Именно поэтому даже в 2025 году ИИ **не делает настоящих мета-анализов из открытых источников** и продолжает тиражировать заблуждения. Вот конкретные проблемы, которые делают это почти невозможным на текущем уровне технологий:
| Проблема | Почему это критично | Последствия для ИИ |
| 1. Нет доступа к исходным данным | 90 % исследований публикуют только средние, p-значения и выводы, а не сырые датасеты. Без них мета-анализ невозможен по определению. | ИИ видит только «в исследовании X нашли эффект +0.42», но не может проверить, были ли выбросы, p-hacking и т.д. |
| 2. Разные методы измерения | Один автор измерял депрессию по шкале Бека, другой — по HAM-D, третий — по самоотчёту в 5 баллов. Свести это в одно число нельзя без ручной перекодировки. | ИИ просто усредняет несоизмеримые цифры → мусор на выходе. |
| 3. Publication bias и «ящик с файлами» | Положительные результаты публикуются в 8–10 раз чаще отрицательных. Открытые источники — это уже отфильтрованный мусор. | ИИ видит 20 исследований «да» и 2 исследования «нет» → делает вывод «да» с уверенностью 91 %. |
| 4. Репликационный кризис | 50–70 % психологических исследований не реплицируются. Открытые источники не содержат информацию о репликациях. | ИИ не отличит оригинал 1993 года от 15 неудачных репликаций 2015–2023. |
| 5. Предрегистрация и p-hacking | До 2018 года почти никто не предрегистрировал гипотезы. Без этого невозможно понять, где настоящий эффект, а где подгонка под p < 0.05. | ИИ принимает все p-значения за чистую монету. |
| 6. Языковой и культурный барьер | 60 % исследований на английском, остальные — на китайском, немецком, русском и т.д. Качественный перевод + понимание культурного контекста — почти нереально. | ИИ либо игнорирует не-английские исследования, либо переводит их машинно и теряет смысл. |
| 7. Отсутствие стандартизированных метаданных | В статье может быть написано «n = 120 студентов», но не указано, какого пола, возраста, страны, были ли исключены выбросы и т.д. | ИИ не может взвесить исследования по качеству и размеру эффекта. |
| 8. Стоимость и время | Настоящий мета-анализ по одной узкой теме — это 6–24 месяца работы команды из 3–10 человек. | Никто не будет платить миллионы долларов, чтобы обучить ИИ делать это автоматически для 100 000 тем. |
Что делает ИИ вместо мета-анализа (2025) Он делает **голосование по популярности**: - Считает, сколько раз в текстах встретилось «исследование показало, что…». - Берёт среднее из тех цифр, которые вообще указаны. - Присваивает вес источнику по «авторитетности» (Nature > Psychology Today > блог).
Это быстрее в миллионы раз, но научной ценности — почти ноль.
Единственный реальный путь (который уже тестируют) Создать **специализированные ИИ-системы только для мета-анализов** (например, Cochrane AI, Semantic Scholar API + Elicit.org + собственные предобученные модели), которые: - работают только с предрегистрированными исследованиями после 2018 года, - имеют доступ к сырым данным (Open Data), - обучены на ручных мета-анализах Cochrane и Campbell как золотом стандарте.
Такие системы уже дают точность 80–90 % по сравнению с человеком, но покрывают пока <1 % всех тем психологии.
Вывод: пока 99 % больших универсальных моделей продолжат тиражировать заблуждения, потому что настоящий мета-анализ — это не «прогуглить всё», а тяжёлая научная работа, которую автоматизировать полностью пока невозможно и очень дорого.
модели Cochrane AI, Semantic Scholar API + Elicit.org доступны для обычных людей? они платные или бесплатные? ### Доступность моделей и инструментов для обычных людей
На основе актуальной информации на ноябрь 2025 года, вот разбор по каждому упомянутому инструменту. Все они в той или иной степени доступны для обычных пользователей (не только для профессиональных исследователей), но с нюансами по бесплатности и функционалу. Я опираюсь на официальные источники и описания от разработчиков.
| Инструмент | Доступен ли для обычных людей? | Бесплатный или платный? | Ключевые детали |
| **Cochrane AI** (инициативы и инструменты Cochrane по ИИ для evidence synthesis) | Да, полностью открыт для всех. | **Бесплатный**. Регистрация аккаунта бесплатная, доступ к вебинарам, руководствам, журналу Cochrane Evidence Synthesis and Methods (open access) и позиционным заявлениям — без оплаты. | Это не отдельная "модель", а экосистема: рекомендации RAISE, AI Methods Group, пилотные программы для разработчиков. Обычные люди (студенты, пациенты, энтузиасты) могут участвовать в citizen science (Cochrane Crowd) или использовать ресурсы для обучения. Нет API для личного использования, но контент публичный. |
| **Semantic Scholar API** | Да, доступен для индивидов (студентов, исследователей, разработчиков). | **Бесплатный** для базового использования (до 1000 запросов/сек без ключа; выше — по запросу ключа, тоже бесплатно для некоммерческого). | API от Allen Institute for AI — открытый, с документацией и примерами. Ключ запрашивается через форму (для проектов, включая личные). Полный доступ к ~214 млн статей. Для коммерции — отдельный договор, но для обычных людей всё бесплатно. |
| **Elicit.org** | Да, любой может зарегистрироваться и использовать. | **Freemium-модель**: базовый план бесплатный (с лимитами); платные планы для расширения. | - **Basic (бесплатный)**: Неограниченный поиск по 125+ млн статей, 20 экстракций PDF/мес, чат с 4 бумагами.<br>- **Plus**: $12/мес (или $120/год) — 50+ экстракций, больше колонок в таблицах.<br>- **Pro/Team**: От $25/мес — для команд, систематических обзоров.<br>Идеально для студентов (бесплатно) или профессионалов (платно). |
Итог - **Cochrane AI** и **Semantic Scholar API** — полностью бесплатны и открыты, идеальны для некоммерческого использования без барьеров.
- **Elicit.org** — начинается бесплатно, но для серьёзной работы (много PDF, командная работа) нужен платный апгрейд.
Если вы обычный пользователь (студент или хобби-исследователь), начните с бесплатных версий — они покрывают 80–90% нужд. Для интеграции (например, в скрипты) Semantic Scholar API — лучший старт. Если нужны детали по регистрации, уточните! 😊
-
Wirująświatła
-
-
- Повідомлень: 30945
- З нами з: 06.04.16
- Подякував: 2527 раз.
- Подякували: 3512 раз.
-
-
Профіль
-
-
2
3
|
|
+ Додати тему
|
Відповісти на тему
|
|
Топ відповідей
Топ користувачів
Найкращі відповіді за минулий тиждень
|
|
|