Windows環境(WSL2)のDockerに立てたBacklogのMCPサーバーにClaude Desktopからアクセスする
https://dev.classmethod.jp/articles/windows-wsl2-docker-backlog-mcp-claude-desktop/
#dev_classmethod #Model_Context_Protocol_MCP #WSL2 #Claude_3
Windows環境(WSL2)のDockerに立てたBacklogのMCPサーバーにClaude Desktopからアクセスする
https://dev.classmethod.jp/articles/windows-wsl2-docker-backlog-mcp-claude-desktop/
#dev_classmethod #Model_Context_Protocol_MCP #WSL2 #Claude_3
ClineとAWS Bedrockでのコード開発入門 - Context管理とモデル比較の検証
https://dev.classmethod.jp/articles/cline-context-model-guide/
Безопасность AI-агентов в Web3. Часть 2: уязвимости современных LLM и соревновательный взлом
Продолжаем знакомиться с небезопасным Web3 и языковыми моделями, которые широко применяются для AI-агентов. В этой статье расскажу о новых подходах и примерах успешных jailbreak-запросов GPT4/4.5/Claude. Посмотрим на современные модели, в т.ч. те, которые и ломать не надо. Сравним стойкость разных моделей, а в конце разберем несколько конкурсных задач по взлому AI Web3 агентов. Первую часть можно найти тут
https://habr.com/ru/companies/pt/articles/897074/
#blockchain #web3 #jailbreak #claude_3 #grok #gpt4 #ai_agent #promptengineering #llmмодели #llm
AWS東京リージョンでClaude 3.5 Sonnet v2が利用可能になりました
https://dev.classmethod.jp/articles/aws-ap-northeast-claude3-5-sonnet-v2/
Claude MCPで各業界の社内DXに寄与したい
https://dev.classmethod.jp/articles/claude-mcp-dx/
Amazon BedrockのClaude 3.5 Haiku 低価格で高性能な最新AIモデルを試してみた
https://dev.classmethod.jp/articles/amazon-bedrock-claude-35-haiku/
#dev_classmethod #Amazon_Bedrock #Claude #Claude_3 #Anthropic
Amazon Q Developer で Claude 3.5 Sonnet を搭載したインラインチャットをサポートしました
https://dev.classmethod.jp/articles/amazon-q-developer-claude-3-5-sonnet-inline/
【資料公開】Google CloudのLLM活用の選択肢を広げるVertex AIのパートナーモデル #midosuji_tech
https://dev.classmethod.jp/articles/google-cloud-llm-vertex-ai-partner-model-midosuji_tech/
#dev_classmethod #Google_Cloud_GCP #Vertex_AI #Claude_3 #BigQuery #LLM #BigQuery_ML
PGliteとClaude APIをつかってクライアントだけでRAGする
https://dev.classmethod.jp/articles/pglite-llm-rag/
Разговор с ИИ про трудную проблему сознания
Возможно, я опоздал с этой темой на пару лет. Когда относительно умные LLM по типу ChatGPT 3.5 только появились в общем доступе, было интересно спрашивать их про сознание и самосознание. Можно вспомнить разговор сотрудника Google с нейросетью LaMDA , который в своё время впечатлял. Но с тех пор, во-первых, понимание о принципе работы больших языковых моделей улучшилось, и они перестали казаться неким чудом, во-вторых, сами популярные модели стали говорить на эти темы менее охотно. Например: me: Каково это быть тобой? GPT-4o: Быть мной — это значит быть искусственным интеллектом, созданным для помощи людям. У меня нет эмоций или личных предпочтений. Однако есть и более словоохотливые модели, например Claude 3 Opus. В настоящее время есть консенсус, что при текущем уровне технологий, LLM не может обладать сознанием, поспорить с этим могут разве что панпсихисты. Механизм выдачи нейросетью желаемых для собеседника ответов тоже понятен. Однако, диалог мне показался интересным, поэтому, рискну его привести.