Forwarded from Kit
В российском сериале «Фандорин. Азазель» (действие там происходит в альтернативном 2023 году) компьютер прогнозирует совершение убийства. Хотя убийца и жертва еще даже не знакомы друг с другом, на одного из них уже надевают наручники. Ситуация выглядит фантастической, однако возможно, вскоре она станет реальностью.
Искусственный интеллект все чаще участвует в принятии решений, которые влияют на нашу жизнь. Дадут вам ипотеку или нет? Повысят вас в должности? А может, вы террорист? А если террорист — убить вас или нет? Это не преувеличение: ИИ проник во все сферы жизни. Например, в начале февраля в Колумбии судья вынес решение, посоветовавшись с нейростетью.
От искусственного интеллекта ждут справедливости, объективности и беспристрастности. Но на самом деле алгоритмы просто воспроизводят закономерности, характерные для реального мира. Ведь, чтобы нейросеть начала «думать», ей «скармливают» тысячи примеров и дают задачу повторить их. К примеру, фемактивистка Дарья Серенко обвинила нейросеть приложения Lensa в «нейросексизме»: программа сгенерировала эротические изображения, хотя в нее загрузили фотографии в одежде.
Мультимедийный художник и публицист Иван Неткачев в письме Kit рассказывает почему алгоритмы не строят для нас новый справедливый мир, а, наоборот, только укрепляют старый несправедливый.
Если вы подписчик Kit, ищите его в своем почтовом ящике. Если еще нет — вы можете подписаться по ссылке.
Искусственный интеллект все чаще участвует в принятии решений, которые влияют на нашу жизнь. Дадут вам ипотеку или нет? Повысят вас в должности? А может, вы террорист? А если террорист — убить вас или нет? Это не преувеличение: ИИ проник во все сферы жизни. Например, в начале февраля в Колумбии судья вынес решение, посоветовавшись с нейростетью.
От искусственного интеллекта ждут справедливости, объективности и беспристрастности. Но на самом деле алгоритмы просто воспроизводят закономерности, характерные для реального мира. Ведь, чтобы нейросеть начала «думать», ей «скармливают» тысячи примеров и дают задачу повторить их. К примеру, фемактивистка Дарья Серенко обвинила нейросеть приложения Lensa в «нейросексизме»: программа сгенерировала эротические изображения, хотя в нее загрузили фотографии в одежде.
Мультимедийный художник и публицист Иван Неткачев в письме Kit рассказывает почему алгоритмы не строят для нас новый справедливый мир, а, наоборот, только укрепляют старый несправедливый.
Если вы подписчик Kit, ищите его в своем почтовом ящике. Если еще нет — вы можете подписаться по ссылке.
tgoop.com/beyondmeaning/227
Create:
Last Update:
Last Update:
В российском сериале «Фандорин. Азазель» (действие там происходит в альтернативном 2023 году) компьютер прогнозирует совершение убийства. Хотя убийца и жертва еще даже не знакомы друг с другом, на одного из них уже надевают наручники. Ситуация выглядит фантастической, однако возможно, вскоре она станет реальностью.
Искусственный интеллект все чаще участвует в принятии решений, которые влияют на нашу жизнь. Дадут вам ипотеку или нет? Повысят вас в должности? А может, вы террорист? А если террорист — убить вас или нет? Это не преувеличение: ИИ проник во все сферы жизни. Например, в начале февраля в Колумбии судья вынес решение, посоветовавшись с нейростетью.
От искусственного интеллекта ждут справедливости, объективности и беспристрастности. Но на самом деле алгоритмы просто воспроизводят закономерности, характерные для реального мира. Ведь, чтобы нейросеть начала «думать», ей «скармливают» тысячи примеров и дают задачу повторить их. К примеру, фемактивистка Дарья Серенко обвинила нейросеть приложения Lensa в «нейросексизме»: программа сгенерировала эротические изображения, хотя в нее загрузили фотографии в одежде.
Мультимедийный художник и публицист Иван Неткачев в письме Kit рассказывает почему алгоритмы не строят для нас новый справедливый мир, а, наоборот, только укрепляют старый несправедливый.
Если вы подписчик Kit, ищите его в своем почтовом ящике. Если еще нет — вы можете подписаться по ссылке.
Искусственный интеллект все чаще участвует в принятии решений, которые влияют на нашу жизнь. Дадут вам ипотеку или нет? Повысят вас в должности? А может, вы террорист? А если террорист — убить вас или нет? Это не преувеличение: ИИ проник во все сферы жизни. Например, в начале февраля в Колумбии судья вынес решение, посоветовавшись с нейростетью.
От искусственного интеллекта ждут справедливости, объективности и беспристрастности. Но на самом деле алгоритмы просто воспроизводят закономерности, характерные для реального мира. Ведь, чтобы нейросеть начала «думать», ей «скармливают» тысячи примеров и дают задачу повторить их. К примеру, фемактивистка Дарья Серенко обвинила нейросеть приложения Lensa в «нейросексизме»: программа сгенерировала эротические изображения, хотя в нее загрузили фотографии в одежде.
Мультимедийный художник и публицист Иван Неткачев в письме Kit рассказывает почему алгоритмы не строят для нас новый справедливый мир, а, наоборот, только укрепляют старый несправедливый.
Если вы подписчик Kit, ищите его в своем почтовом ящике. Если еще нет — вы можете подписаться по ссылке.
BY beyond meaning
Share with your friend now:
tgoop.com/beyondmeaning/227