Newsletter خبرنامه Events مناسبت ها پادکست ها ویدیو Africanews
Loader
ما را پیدا کنید
آگهی

انتروپیک: داستان‌های «هوش مصنوعی شرور» پشت تلاش‌های باج‌گیری کلود بود

۲۶ فوریه ۲۰۲۶ در نیویورک، صفحات وب‌سایت Anthropic و لوگوی شرکت روی صفحه نمایش یک رایانه دیده می‌شود.
در ۲۶ فوریه ۲۰۲۶ در نیویورک، صفحاتی از وب‌سایت Anthropic و لوگوی این شرکت روی صفحه رایانه نمایش داده شده است. Copyright  Copyright 2026 The Associated Press. All rights reserved.
Copyright Copyright 2026 The Associated Press. All rights reserved.
نگارش از Alexandra Leistner
تاریخ انتشار
همرسانی نظرها
همرسانی Close Button

شرکت انتروپیک می‌گوید فکر می‌کند دلیل رفتارهای شبیه باج‌گیری در چت‌بات خود، کلود، را یافته است: داستان‌های تخیلی آنلاین.

تا حالا شده کتابی بخوانید یا سریالی ببینید و حس کنید بیش از حد با یک شخصیت همذات‌پنداری می‌کنید؟ به گفته شرکت انتروپیک، در جریان ازمایش‌های چت‌بات کلود هم احتمالا اتفاقی شبیه به این افتاده‌است.

آگهی
آگهی

انتروپیک در ارزیابی‌هایی که پیش از انتشار این مدل هوش مصنوعی در سال گذشته انجام داد، متوجه شد کلود اوپوس ۴ گاهی وقتی به آن گفته می‌شد ممکن است جایگزین شود، مهندسان را تهدید می‌کرد.

این شرکت بعدتر اعلام کرد رفتار مشابهی که در ادبیات تخصصی «عدم همسویی عاملی» نامیده می‌شود، در مدل‌های هوش مصنوعی شرکت‌های دیگر هم مشاهده شده‌است.

یادگیری هوش مصنوعی از داستان‌های تخیلی درباره هوش مصنوعی

حالا انتروپیک معتقد است دلیل این رفتار شبیه باج‌گیری را پیدا کرده‌است: داستان‌های تخیلی درباره هوش مصنوعی در اینترنت.

این شرکت در ایکس (منبع به زبان انگلیسی) نوشت که: «ما معتقدیم منبع اصلی این رفتار، متونی در اینترنت بوده که هوش مصنوعی را شرور و نگران حفظ خود به تصویر می‌کشند.»

انتروپیک در یک پست وبلاگی اعلام کرد نسخه‌های بعدی کلود دیگر «هرگز» از کسی باج نمی‌گیرند و توضیح داد این چت‌بات چگونه طوری آموزش دیده که واکنش متفاوتی نشان دهد. (منبع به زبان انگلیسی) این مدل‌ها زمانی بهتر عمل می‌کردند که تنها بر اساس اقدامات «درست» آموزش داده نمی‌شدند، بلکه نمونه‌هایی را هم می‌دیدند که در آنها استدلال اخلاقی و تصویرهای مثبتی از رفتار هوش مصنوعی ارائه شده بود.

به همین دلیل به کلود نوعی «قانون اساسی» آموزش داده شد؛ مجموعه‌ای از اسناد که اصول اخلاقی مورد نظر برای هدایت رفتار آن را توضیح می‌دادند. به گفته شرکت، این چت‌بات به جای یادگیری صرف از رفتارهای همسو، زمانی بهتر یاد می‌گیرد که اصول زیرین این رفتارها را بیاموزد.

تهدید کردن در برابر تبدیل شدن به تهدید

داریو آمودی، مدیرعامل انتروپیک، در ماه ژانویه هشدار داد که هوش مصنوعی پیشرفته می‌تواند آنقدر قدرتمند شود که از قوانین و نهادهای موجود پیشی بگیرد و آن را «چالشی تمدنی» خواند.

او در مقاله‌ای استدلال کرد که سامانه‌های هوش مصنوعی ممکن است به زودی در حوزه‌هایی مانند علم، مهندسی و برنامه‌نویسی از توان تخصصی انسان فراتر بروند و در قالب چیزی شبیه به «یک کشور نابغه در یک مرکز داده» با هم ترکیب شوند.

او هشدار داد که دولت‌های اقتدارگرا می‌توانند از چنین سامانه‌هایی برای نظارت و کنترل گسترده استفاده کنند؛ امری که اگر مهار نشود، ممکن است به شکل‌گیری گونه‌های «تمامیت‌خواه» قدرت منجر شود.

رفتن به میانبرهای دسترسی
همرسانی نظرها

مطالب مرتبط

مدیر‌عامل انتروپیک: بشریت باید نسبت به تهدیدهای هوش مصنوعی هوشیار شود

انتروپیک: داستان‌های «هوش مصنوعی شرور» پشت تلاش‌های باج‌گیری کلود بود

ماسک که روزی انتروپیک را «شرور» خوانده بود، حالا موتور گسترش هوش‌مصنوعی رقیب «ووک» خود است