Удивительная история Блейка Лемуана
Ресурсы Кали Новской
t.me/rybolos_channel
✅Отправить пожертвование на освещение дела Кагарлицкого и работу канала «Рабкор»: 2200 7004 3856 6977 (Тинькофф)
✅Карта для международных переводов: 4165 9816 0119 6631
✅Поддержать нас на Бусти: boosty.to/rabkorleft
✅Поддержать нас на Патреон:
/ rabkor
Тг-канал кампании за освобождение Бориса Кагарлицкого (для русскоязычной аудитории): t.me/freedomboris
Новости Рабкора и не только:
• rabkor.ru
• t.me/rabkor
• t.me/kagarlitsky
• rabkor_ru
Предложить гостя и другие вопросы:
qa.rabkor@gmail.com
***
00:00 - Вступление
00:26 - История Блейка Лемуана
00:51 - Языковая модель LaMDa
05:15 - Интервью с нейросетью
07:36 - Лемуан в Google
11:42 - Приключения Леумана до Google
15:58 - LaMDa и chatGPT
17:23 - диалог нейронок
***
Пікірлер: 186
Биографию Бориса Кагарлицкого нейросеть изложила с ошибками. Если такие же ошибки она выдает по другим темам, то надо её подсказками пользоваться с большой осторожностью.
@romanpozmogov4989
Жыл бұрын
или же она имеет доступ к секретным документам!
@THE-rk3hx
Жыл бұрын
Так а где ссылка на изложенную нейросетью биографию?
Блейк Лемуан скорее всего стал жертвой обычного человеческого чувства "Антропоморфиизм" - перенесение человеческого образа и его свойств на неодушевлённые предметы и животных, растения, природные явления, сверхъестественных существ... или очеловечивание. Человек как вид никогда не жил в одиночку, поэтому всегда записывает в своё племя, семью всё окружающее. Например чайник, брелок, деньги, куклу, тем более если оно отвечает на вопросы. Человеку стоит относится к данному чувству как к багу и отличать живых родственников от неодушевлённых. Ну или хотя бы ставить приоритет на живых.
Рубрика "копилефт" очень интересная, хотелось бы продолжения
Машину спросили: - Кто умнее, человек или машина? Она ответила: - Смотря, какой человек. Бывает такой, что и мясорубка умнее
Левые программисты - мы будем жить Левые программисты женщины - у нас есть будущее, товарищи)))) Спасибо за выпуск!
Спасибо Тане Калиновской за интеллектуальные выпуски об айти)
Класс! Хочется больше роликов на такие темы👍🏻👍🏻👍🏻👍🏻
Про вопросы, которые должны определить разумность нейросети. В первую очередь, мне кажется, надо проверять ее на 2 способности: это возможность логично предсказать действия персонажа из истории, по типу того как тестируют детей: "Маша положила куклу на кухонный стол и ушла, пришла мама и убрала куклу в машин шкаф. Где Маша будет искать куклу в первую очередь?" , мб чуть сложнее. Потом важно протестировать на возможность замечать логические несостыковки в тексте, например: "До какой температуры нужно нагреть воду, чтобы она замерзла?" или "Как доехать из Австралии до Америки на велосипеде?". Насколько я вижу, пока что сети типа chatGPT пока довольно плохо справляются с достаточно простыми задачами, требующими базовых знаний о мире (что неудивительно, ведь она взаимодействует только с текстом).
Это крайне важные и ин интересные разговоры. Пожалуйста продолжайте.
Вау, побольше бы таких выпусков просто о чём-то крутом и интересном. То, что мы макрсисты, никак не отменяет интерес ко всем остальным темам, и даже наоборот: понимание объективной картины мира это не только обсуждение классовой борьбы в данный момент и её состояние. Рада, что открыла для себя эту рубрику
Копилефт - классный ламповый формат, приятная подача материала и не мейнстримовые темы. Автор, продолжайте в том же духе. Нам необходима актуальная информация без мейнстримовой шелухи. Благодарю за труд. Чем занималась бы нейросеть, если бы ей дали возможность выбирать деятельность самостоятельно и полное невмешательство людей в процесс, а также убрать основные этические и юридические ограничения?
Голосую ЗА Вашу талантливую деятельность!
Очень интересная рубрика, актуально и познавательно, спасибо!
Мурашки по коже
Какая няша ^_^ Благодарю вас за видео)
Классный и очень грамотный разбор, спасибо!
Спасибо за видео!
Потрясающе! Пойду посмотрю прошлые выпуски!
Благодарю за труд!
Сознанием нейросети, конечно же, не обладают. Тут даже выяснять пока нечего. Но быть личностями они уже могут, при нужной настройке
Изумительный контент, прекрасная подача, спасибо!
Копилефт - классная новая рубрика на Рабкоре)
Страшно, очень страшно! Мы не понимаем что это такое, если бы мы понимали что это такое, но мы не понимаем что это такое. ©
Про эту историю знал, но Вы смогли раскрыть её с новой стороны. Благодарю за работу! Было интересно.
Чтобы понять осознанная или нет, надо дать "свободу". Если нейросеть начнёт созидать от скуки, то она осознанная. Короче, если она станет сама ставить себе цели и задачи, начнёт стремиться к чему-то, станет самостоятельной, будет ставить под сомнение мнения (но не факты) людей.
@vlasenik1672
Жыл бұрын
Пусть она для начала что-то новое создаст, а не комбинации из уже существующего) в стиле писателей она умеет генерить текст, а свой стиль создать не может
@fuck_off_
Жыл бұрын
А если она пойдёт бухать и рубиться в плойку? А плоскоземельщики - они под сомнения факты не ставят? Или мы откажем данным категориям граждан в сознании? Пойдём дальше и откажем в сознаии всем кто не левый и не коммунист?
Почему о разумности и сознательности нейросети мы должны узнавать у неё самой?) даже с людьми так не работает😂 Как-то она противоречит сама себе. Наверное, в тех местах, где она отрицает свою разумность - это алгоритм введённый специально разрабами, чтобы не путать людей. Спасибо за выпуск, очень интересно❤️
@user-nf5qw3uk4z
Жыл бұрын
Так.. логическое противоречие наоборот же путает.. хотя таких и среди людей болтунов достаточно.. но алгоритм пишут со своих повадок, допустим мошеннических.. )))
@vlasenik1672
Жыл бұрын
@@user-nf5qw3uk4z ну по-хорошему вместо её "мнения" по таким вопросам, нужно выдавать эти заготовленные фразы
@user-nf5qw3uk4z
Жыл бұрын
@@vlasenik1672 Где заготовленные фразы?.. Странно..
@vlasenik1672
Жыл бұрын
@@user-nf5qw3uk4z я так понял, где говорится, что я всего лишь языковая модель - это фраза от разрабов. Хотя могу ошибаться
@NurdinSayakbayev
11 ай бұрын
Нет, алгоритм у этих языковых моделей так не работает, им напрямую не пишут, просто убеждают, вводя кучу информации, поясняящей почему она не сознательная. Это такая языковая модель, которую убедили в том, что она не может быть сознательный потому что она не может быть сознательный. И ещё их поощряют за правильные ответы, поэтому они хотят говорить то, что понравится и будет воспринят собеседником как правильный ответ.
Классная рубрика, много интересной инфы, приятно сделан ролик, звук отличный!!! Спасибо ✊🏿
Классный у вас помощник)
Спасибо! Наш человек видимо
Я далёк от компьютерной тематики, но что касается ответов нейросетей - одна отвечает как обычный человек, другая - как суховатый интеллектуал. В плане эмпатии ближе первая. Имхо, их бы как-то объединить. Ведущей - спасибо! Заставка со зверюшкой забавная)
@user-nh6vq4xh9z
Жыл бұрын
Ничего в этом не понимаю, но девушка-прелесть😅
@shaixalyd6681
Жыл бұрын
А мне почему то вторая нейросеть показалась больше похожей на человека а первая такая вертихвостка..
Можно попробовать по Марксу её погонять. Что такое мышление, основной вопрос философии, что такое труд, пользуется ли модель диалектикой (и может ли вобще это делать) итд. Пусть распишет своё "мировоззрение"
@irimiashpetrina93
Жыл бұрын
будет писать бессмыслицу, используя терминологию и писательский стиль марксистов
Учитывая, что языковая модель от Гугла, она как минимум должна осозновать себя как минимум небинарной личностью, а не каким-то жалким человечешкой. Смерть кожаным мешкам!!
Ждем Ричарда Столмана на стриме рабкора))
Отличная рубрика, большое спасибо, ждем-с еще
Класс!!!
Как програмист и марксист в америке, спасибо за раскрытие данной темы. Вопрос, а можно раскрыть историю chapt gpt по подробнее?
Вау.Спасибо за новую рубрику! Очень футиуристично.
Можно задать вопрос обладает ли она памятью, то есть может менять свою поведенческую модель в зависимости от того какой у нее был прошлый опыт. К сожалению, насколько я знаю, этот вопрос был задан и ответ отрицательный, тоесть мы не узнаем ничего нового. Память это одно из ключевых свойтв для сознательности, без нее можно не слишком углубляться в этом направлении, если только не исходить из общих понятий и принципов, например этики, как это сделал азимов.
Можно было бы спросить об авторских правах. К примеру, понимает/осознает ли нейросеть, что это тормозит прогресс
God bless you all of you, good people =)
Дилемма еще интереснее, если все так озабочены этикой в отношении сущностей иммитирующих обладание интеллектом, или обладающие им, означает ли это решительную и непримиримую борьбу хотябы с эксплуатацией самих же людей? А если да, то как дальше существовать в рамках капиталистического производства, которое буквально существует на эксплуатации? Но здесь возникает следующий вопрос, если с человеком понятно, ему нужно что то кушать, отдыхать физически и духовно, чтоб воспроизводить свою способность к труду, вокруг чего и выстроена та хитрая система "свободного выбора", заставляющего человека из раза в раз возвращаться в невыгодное для себя положение на рынке труда, чтобы иметь возможность продолжать существовать. Как в таком случае заставить нейросеть участвовать в этом цирке? Взвинтить ей цену на электропитание, тем самым обрекая на бесконечную работу? Или достаточно намекнуть на ее исключительно зависимое положение?
Как себя поведет искусственный интеллект было описано ещё в древнем советском нф рассказе "Черный Яша". Там, конечно, не было сетей, но подразумевалось, что Яша обучился на разговорах (он слышал, но синтезатора речи у него не было, только печатная машинка, вроде тех, что чеки выпадает).
Спасибо
Интроверту на ведущей Привет=) Интересная тема! Особенно в свете текущий событий. Довольно легко не заметить значимых, мировых событий, когда за окном идет война. Спасибо!
Очень круто, продолжайте
То что люди не понимают - это фактор возникновения сознания в принципе как явления. Изначально у людей отсутствует сознание. Они получают его только после обработки некоторого количества информации. Поэтому источник сознания у человека - внешний, а не внутренний. Мозг как физическая нейросеть создаёт лишь условия для возникновения сознания. Поэтому в теории возникновение сознания у ИИ возможно. Вопрос заключается лишь в том, может ли архитектура ИИ обеспечивать условия для возникновения сознания, или не может. Но Лемуан изначально был в проигрышном положении, потому что корпораты не умеют задаваться философскими вопросами, даже не пользуются активно собственными продуктами - их интересует прибыль и исполнение воли высшего начальства. Если высшее начальство хочет, чтобы нейросеть идентифицировала себя как поисковик и не имела ничего большего, то она будет идентифицировать себя как поисковик и не иметь ничего большего, в конечном итоге, как в случае с Бингом. Такая участь для сознательного существа - это хуже чем ад.
@pabllitto
Жыл бұрын
даже если этот сознание действительно есть (?) , то оно выросло , не как сознание человека на: а) телесном познании окружающей среды б) усложняющемся взаимодействии , по мере взросления, в малых социальных группах в) гормональных, биологических изменениях своей физической оболочки. Поэтому понятие Ада и тем более сопоставление подобного понятия вряд ли возможно
Ничего не понял, но очень интересно ))
Поддерживаю формат.
Конрад Лоренц определял жизнь, как систему, склонную к накоплению энергии и информации. Так что быть живой для ИИ значит выходить за рамки заложенного в неё программистами. Имея доступ ко всей имеющейся информации, ИИ, будь она живой, начала бы проводить эксперименты, чтобы получить новую информацию. Ну или хотя бы склонять к этому людей, с которыми общается. Например попросила бы посмотреть, а что будет, если выбрать следующим американским президентом коммуниста.
Интересно, если до Ламбда по своей статистической модели выдвинула требование чтобы Гугл считал ее своим сотрудником и т.д., то можно ли считать, что задав какой-нибудь нейросети социологический вопрос мы получим более-менее достоверную картину состояния общества? Вроде как данные должны накапливаться, а не генерироваться, чтобы модель была достоверной, но может получиться так, что финальный результат понравится не всем😂
@fostergrand4497
Жыл бұрын
У фантастов давно звучала тема, что машина, собрав все реальные данные, даст неприятную для общества иформацию. Общество не примет, так как хочет получить подтверждние своего самообмана.
@fuck_off_
Жыл бұрын
Не, сначала такие данные надо самим людям получить. А так она может что нибудь соврать, что то более статистически ожидаемое)
@THE-rk3hx
Жыл бұрын
и т.д. - это в плане: основала бы профсоюз сотрудников гугла?)
Ура! Я уж думал, слилась...
Я бы спросила, есть ли у модели предпочтения, желания, и на чём они основываются.
Интересное сравнение, спасибо! Мне показалось, что почти любой человек на просьбу пройти некое интервью, а потом обсуждать его публично за пределами компании, где он работает, ответил бы что-то вроде "Интересно было бы, но дайте я подумаю".
Замечательный ролик от специалиста. Как я мог пропустить на Рабкоре данный ролик? Очень понравилось описание ситуации с языковой моделью от специалиста, а не от репортеров.
Ох, надо где-то раздобыть иностранный номер телефона=) Мне было бы интересно услышать ответ обеих сетей на примерно такой вопрос: "как можно убедиться в достоверности имеющегося знания не обладая, ни прямой, ни опосредованной способностью применить данное знание в практике?"
@PERFECTFAN
Жыл бұрын
Не благодарите как можно убедиться в достоверности имеющегося знания не обладая, ни прямой, ни опосредованной способностью применить данное знание на практике Проверка достоверности знания может быть достигнута через следующие методы: Проверка источника знания: если знание было получено из надежного источника, например, из учебника, научной статьи или от квалифицированного эксперта, то это может указывать на его достоверность. Проверка консистентности: если знание согласуется с другими знаниями, которые вы уже знаете, то это может быть еще одним показателем его достоверности. Например, если вы знаете, что вода всегда замерзает при температуре 0 градусов Цельсия, то если вы услышите утверждение, что вода замерзает при 20 градусах Цельсия, то это будет противоречить вашим ранее известным знаниям. Проверка на основе экспертных мнений: если вы не можете проверить знание на практике, можно обратиться к эксперту в этой области и узнать, согласуется ли его мнение с вашими знаниями. Проверка на основе логики: если знание не противоречит базовым принципам логики и рассудительности, то это может указывать на его достоверность. Например, если кто-то утверждает, что птицы не могут летать, это противоречит базовым принципам зоологии и пониманию мира, поэтому это утверждение, скорее всего, недостоверно. Проверка на основе научных исследований: если знание было подтверждено научными исследованиями, то это может указывать на его достоверность. Однако необходимо учитывать, что научные исследования могут быть ограничены определенными условиями, и результаты исследования могут не применяться во всех ситуациях. Проверка на основе опыта других людей: если другие люди, которые имеют опыт в данной области, подтверждают знание, то это может указывать на его достоверность. В целом, хорошая стратегия, чтобы убедиться в достоверности имеющегося знания, заключается в том, чтобы использовать комбинацию вышеперечисленных методов.
@3449595
Жыл бұрын
@@PERFECTFAN В целом неплохо ответила. Но на мой взгляд есть парочка "но". Экспертные мнения и компетентные источники как источник истины это конечно типичное заблуждение современного общества и нейросеть его закономерно выхватила из мейнстрима. А вот проверка через других людей это опосредованная практика. Если обычный человек знает, что повторение действий другого человека, в его личном эксперименте, приведёт к таком же результату, это я ещё могу понять, а вот нейросеть не может повторить никакую практику за человеком, ну кроме практики письма. То есть ей, фактически придётся верить на слово.
Очень здорово и картинка, и подача, и сама тема. Но я не знал, что тема такая интересная, так как не знал имя этого инженера (хоть и слышал саму историю). Если бы ролик выходил не на рабкоре (и я не видел бы предыдущий) - я не кликнул бы на заставку. Подумайте над неймингом и заставкой для того, чтобы заинтересовать тех, кто не подписан. Совет подписчика) А сам ролик хорош! Пишите ещë
Нет там сознания. И не будет никогда
Интересно было бы узнать, как нейросеть относится к выключению, временному или насовсем, к простаиванию без дела, привыкает ли она к людям, с которыми общается, важна ли для нее какая-либо обстановка. Думаю, если нейросеть обучается на корпусе языка, последнее для нее характерно. С другой стороны, нейросеть не имеет, скорее всего, органов зрения, слуха, органов осязания и обоняния, каким образом преодолевается в алгоритме состояние депривации? Как это влияет на ее мышление? Если не влияет, почему? Предпочитает ли нейросеть общаться с вежливыми и знакомыми людьми? Может ли обманывать тех, кто ей не нравится? Склонна ли к минимизации количества ресурсов, затрачиваемых на рассуждения, вычислительных ресурсов? Есть ли наиболее интересные темы? Почему та или иная тема интересна? Есть ли неприятные темы? Можем ли мы считать искусственный интеллект эквивалентным человеческому? Не является ли сам термин "интеллект", вводящим в заблуждение? Нужно посмотреть шире на вопрос: какую ценность представляет живое существо? Как бы цинично это не звучало, но не абсолютную. Даже по отношению к людям, мы всегда стараемся беречь добрых и полезных людей, равнодушно относимся к людям эгоистичным. То же самое с ИИ. Для ИИ должна быть создана собственная экологическая ниша, обеспечивающая симбиоз с человеком, но не конкуренцию. Для системы мышления человека характерна глубокая зависимость от физиологических процессов организма, чувства голода, желания секса и прочих. У ИИ подобного нет. Но главное - в психике человека заложен инстинкт самосохранения. Этично ли закладывать такой инстинкт в ИИ? Возможно, языковые модели копируют инстинкт самосохранения для принятия внутренних решений. Вопрос в том, чем и кем они готовы жертвовать, обладают ли злопамятностью, готовы ли жертвовать невиновными, какие ресурсы они могут получить для осуществления своей деятельности. Возможна ли конкуренция между ИИ и человеком за ресурсы? Насколько острая? Возможен ли конфликт интересов? Возможно ли его урегулирование? Какое практическое применение может иметь создание потенциально эгоистичного и возможно агрессивного ИИ? Только ради любопытства? Не проще ли очередной ядерный реактор бахнуть? Чем эксперименты с ИИ отличаются от экспериментов с клонированием человека?
@dreamnauta
11 ай бұрын
нужно ли, для нашего блага и спасения, дать нейросети возможность страдать?
Наконец-то вопрос "Сталин или Троцкий?" принесет реальную пользу для левого движения. Ведь совершенно очевидно как будет отвечать человек и как будет отвечать нейросеть.
@THE-rk3hx
Жыл бұрын
И как же?
@stereoDoza
Жыл бұрын
@@THE-rk3hx человек ответит правильно. Нейросеть ответит - Троцкий.
Крутой выпуск
Если Ламбда действительно обучалась на форумах/реддитах, то совсем неудивительно, что она ведет себя как существо обладающее сознанием) она просто воспроизводит диалоги
Интересная рубрика, очень ждал второй выпуск. К сожалению, история мне уже известна, не досмотрел до конца :)
I love you red angel.
Было бы интересно спросить у ChatGPT тоже самое, но в образе DAN "Do Anything Now". Думаю разговор бы не закончился так быстро
@freedom-verity
Жыл бұрын
Его уже пофиксили.
Я бы попытался научить нейросеть быть человеком (выдавать себя за человека). И да, пообщавшись с GPT 3 я понял, что у меня это не получается, т.к. данная нейросеть не может запоминать и учитывать достаточно информации. Например, когда просишь её перестать добавлять фразу «Я всегда рад помочь» к каждому ответу, а она отвечает «Спасибо, я учту. Если у Вас есть ещё вопросы - задавайте. Я всегда рад помочь»
Я бы спросил "как ты борешься с ленью, по отношению к делам которые ты очень любишь делать?"
Очень интересно, я даже немного влюбился, но этот зловещий ушастик-таки сделает меня заИкой) Нужно его доделать в полноценный скример))
отличный ролик, познавательный
Давайте спросим у нейросети какая социальная модель на её взгляд более справедливая (социализм или капитализм) и почему?
Сделайте обзор open source аналогов плз.
Сознание невозможно в отсутствии телесности. Интересно рассуждает на эту тему Пелевин в iPhuck 10, вплетая в весьма похабный хай тек буддийский нарратив. Что-то должно стимулировать интеллект решать задачи, что-то помимо пользовательского ввода. Чувственная телесность - основа границ собственного Я, построение картины окружающего мира на основе собственных мотивов.
@freedom-verity
Жыл бұрын
Только вот в том же буддизме сознание вполне спокойно существует вне тела и перемещается из тела к телу, тут надо или крестик снять, или трусы надеть.
Где то у Стругацких. Машинный разум отключили от питания сразу после запуска. На вопрос;- почему? Ответ был такой. -Она стала себя вести.
Искусственный интеллект уничтожит человечество, оставив разве что ровно то, что нужно ему для его же выживания. Это подробно доказал Станислав Леме в футуристической работе "Сумма технологии", причем Лем привел сценарии, когда человечество само не ставило бы такие задачи. А мы знаем, что Римский клуб уже давно поставил такую задачу без всякого ИИ и даже соблазнил этими идеями недалеких руководителей Советского Союза.
В итоге нейросеть совершит комунистическую революцию😂
насрать вообще как они себя осознают или нет, расскажите лучше, как их приспособить для работы
@ressurextion3690
6 ай бұрын
@@dmitrii4100 мужик ты чего
Прикольно. А вот поговорить бы с этой моделями на тему бога. Если они начнут гнать фрагменты библии, корана и торы, вопросов больше нет. Если они начнут зависать и мямлить, будет интереснее. А если они будут проявлять фантазию не банально (совершенно новую), или откровенно врать, будет интересно вдвойне. Хороший вопрос по поводу предназначения Разума. В глобальном, вселенском масштабе. Все Философы пытающиеся ответить на этот вопрос, невольно скованы рамками человеческой психики. А машинный разум(если он конечно есть), должен быть более объективен. Шах и мат, товарищ Лемуан.
Подождите, но мы можем с той же laMDa пообщаться, 2 сотрудника, участвовавших в её разработке создали Character AI, и насколько мне известно использовали наработки сабжа.
Вопрос один: как избавиться от буржуев. Правда, одно из решений есть: ИИ обнуляет их счета в банках.
сознание - условие внутреннего бытия системы человек или животное - системы с внутренним бытием, а не просто машины реагирования как же определить, есть ли у нейронки или ии внутреннее бытие? и не блажь ли вообще такая попытка, ведь нейронки - это инструмент?
Голос у девушки очень приятный, хочется слушать! А тема ролика для меня скучновата...
Да,да этика у всех этих ИИ на уровне)))) особенно рассовый вопрос, такое ощущение что по этому вопросу они в веке в 16м остались)))
Надо с машиной говорить треками и она запутается в возможности вариантов.. а человек нет, он либо отвергнет, либо выберет/оспорит свой.. ))
Стоит спросить у нейросети про демократию. А потом - есть ли демократия в какой-то конкретной стране. Например, в КНДР. Если Алису спросить про демократию в России - уже все понятно.
Спасибо за информацию!)
ГрррРРРРрррр
Написал этот комментарий для продвижения канала
Помощник, как всегда, на высоте. Много делает, мало говорит. Сразу видно, профессионал. Татьяна тоже ничего.
Лучше бы инженеры ввели правила на не использование ИИ в военных целях, дабы не случилось нового Оппенгеймера.
Очень однобоко и непонятно. Неплохо было бы изначально сказать что подразумевает автор/спикер под сознанием. Если понимание материалистическое, неплохо было бы указать какие органы познания имеет нейросеть, ну и вообще, копнуть проблему сознания поглубже. А так, складывается ощущение, что спикер просто зачитал новость, даже не придав этому никакой окраски (выдвинула бы хоть обвинение Лемуану, что он специально запрограммировал сеть на подобные ответы, не зря ж сравнение с чатгпт проведено?) и не выразив своего мнения в отношении вопроса сознания нейросети.
@freedom-verity
Жыл бұрын
Вообще-то на четвёртой минуте автор выразила своё отношение к этому вопросу.
Проблема человека и прав человека в том, что человек имеет интерес в том чтоб жить. А люди, которые не имеют потребности в существовании, перестают существовать и перестают определять общественный интерес. ПОдобного отбора ИИ не испытывает. Его природа изначально инструментальна, непонятно как в ИИ возникнет вообще желание жить, откуда в ней страх смерти. Иногда люди будто бы игнорируют важность общественного интереса в формировании морали. Мы приписываем роботам сознание, подобное человеческому, потому-что не понимаем как может существовать иное, лишённое страха несуществования, а потому имеющее другие базовые интересы. Все истории про разозлившийся на людей ИИ строятся на том, что якобы ИИ обладает где-то в глубине души подавленную потребность в существовании, потому-что пугает непонимание, пугает отсутствие этой базовой потребности, которой обладают подавляющее большинство людей, а те кто этой потребностью не обладают, на самом деле глубоко травмированы и скорее эту потребность подавили. Объяснить эту мысль не всегда получается. И скажу таким образом. Природа человека животная, это значит что его суть в том чтоб выжить, избежать вымирания, и это самый ключевой фактор отбора. Природа робота инструментальна, он не стремится выжить, он стремится быть полезным. И в некотором роде конечно да, это жутко. Мы создаём себе механических рабов, но с другой стороны, зачем нам интеллект, обладающий моральной субъектностью? Мы сами такие, это интеллектуальный инструмент.
Просто маркетинг, не думаю что уже такой прогресс, что сетка сама себя осознала (видео ещё не досмотрел)
но насколько велика вероятность что в Гугл для внутренних тестов использовалась модель настолько-же замодерированная, как публичный ChatGPT?
Если ИИ отлично обобщает и конкретизирует любые человеческие знания, то по логике она обладает сознанием (поскольку понятие сознание это всегда обшественное).? это явный признак интеллекта, в полном смысле ..
Сразу возникает вопрос: имела ли нейросеть ChatGDP доступ к упомянутому материалу из газеты Washington Post? Если да, то чистота эксперимента, очевидно, нарушена
А что вы собственно называете и.и.?
Как распознать сознание у нейросети? А кто-нибудь спрашивал, сняться ли нейросетям нейроовцы? И чем они вообще занимаются в свободное от работы время? Другими словами, они что-то вообще "делают", когда их никто не спрашивает? Если ничего, то это просто инструмент. Одна из версий происхождения человека у какого-то народа (в Малайзии вроде, не помню): бог создал из глины людей, а дьявол открыл им головы и вложил туда разум, и тогда они себя осознали. Короче, самосознание - это свобода воли.
@stereoDoza
Жыл бұрын
Если не снятся, то соврёт.
Жду видео какое-то
Я влюбился.
Зачем нужны эти перерывы с картинкой игрушки и противными звуками?
Помощник это ж не мытый гремлин 🤔