Anthropic telah memperkenalkan Claude untuk Pendidikan, versi yang disesuaikan dengan sistem Claude AI yang direka khusus untuk institusi pengajian tinggi. Daripada meletakkan alat itu sebagai pembantu tangkapan, syarikat itu membingkai Claude sebagai rakan akademik jangka panjang-satu yang menggalakkan pemikiran kritis sambil membantu fakulti dan pelajar menavigasi kursus, penyelidikan, dan pentadbiran. sasaran=”_ kosong”> Antara yang pertama untuk menandatangani . Northeastern sahaja melancarkan Claude di seluruh 13 kampus, memberikan kira-kira 49,000 pelajar akses langsung. Melalui perkongsian dengan Instructure, pembuat platform pembelajaran kanvas, Claude juga akan dimasukkan ke dalam sistem pengurusan pembelajaran, memudahkan integrasi yang luas ke dalam aliran kerja kelas setiap hari. Target=”_ blank”> Untuk tawaran adalah ciri yang dipanggil”Mod Pembelajaran,”yang mengubah peranan Claude dari penyedia jawapan kepada pemikir-pasangan. Daripada menawarkan penyelesaian langsung, AI melibatkan pelajar melalui petunjuk yang direka untuk memimpin mereka melalui proses pemikiran. Reka bentuk ini bertujuan untuk mempromosikan pemahaman yang lebih mendalam dan tidak menggalakkan kelebihan pada output generatif.

Anthropic juga membina infrastruktur untuk menyokong aliran kerja AI yang berterusan melalui Protokol Konteks Modelnya (MCP). Mula-mula diperkenalkan pada bulan November 2024, MCP membolehkan Claude mengakses kedai memori, menggunakan API, dan menyelaras di pelbagai alat dan langkah. Sokongan Microsoft untuk MCP merentasi Azure AI Foundry, kernel semantik, dan GitHub seterusnya membenamkan Claude dalam persekitaran perusahaan dan pendidikan di mana pengendalian tugas yang berterusan adalah kunci. Pada bulan Februari, syarikat itu menaikkan $ 3.5 bilion dalam pembiayaan baru, menjadikan penilaiannya kepada $ 61.5 bilion. Pelabur termasuk Lightspeed Venture Partners, General Catalyst, dan MGX. Komitmen awal $ 4 bilion Amazon terus memberikan sokongan infrastruktur Claude melalui AWS.

Walaupun antropik menolak AI ke bilik darjah, ia telah menarik balik dari beberapa kedudukan dasar terdahulu. Pada bulan Mac, syarikat itu mengeluarkan satu set ikrar keselamatan sukarela yang telah dibuat sebagai sebahagian daripada inisiatif White House. Tiada penjelasan awam yang ditawarkan. Langkah ini mendorong kebimbangan mengenai penjajaran jangka panjang syarikat dengan nilai ketelusan yang dipromosikannya dalam kerja teknikalnya.

Kebimbangan itu seimbang, sebahagiannya, oleh penglibatan dasar aktif syarikat. Anthropic mengemukakan cadangan rasmi kepada White House yang memanggil ujian keselamatan negara AI maju, kawalan eksport cip yang lebih ketat, dan pelaburan infrastruktur tenaga untuk memenuhi permintaan AI yang semakin meningkat. Syarikat memberi amaran bahawa AI yang maju dapat melampaui keupayaan manusia dalam bidang utama oleh 2026 yang memberi risiko jika perlindungan tidak digubal dengan cepat. Bertindak lebih telus, dan boleh diinterogasi, diaudit, dan berbentuk. Sama ada penglihatan itu sejajar dengan bagaimana universiti mahu AI berfungsi masih dapat dilihat.

Anthropic adalah pertaruhan bahawa institusi peduli tentang kepercayaan dan kebolehkesanan seperti kelajuan dan kemudahan. Mod pembelajaran Claude, alat tafsiran, dan integrasi perusahaan mencerminkan pertaruhan itu. Sekarang, terpulang kepada universiti untuk memutuskan sama ada versi AI ini berada di dalam bilik darjah-dan jika ya, berapa banyak ruang yang patut berkembang.

Categories: IT Info