跳转到主要内容

代码回顾

import { Injectable } from '@nestjs/common'
import { Document } from '@langchain/core/documents'
import {
  DocumentTransformerStrategy,
  IDocumentTransformerStrategy,
  IntegrationPermission,
  TDocumentTransformerConfig,
} from '@xpert-ai/plugin-sdk'
import { IconType, IKnowledgeDocument } from '@metad/contracts'
import { iconImage, LarkDocumentMetadata, LarkDocumentName, LarkName } from './types.js'
import { LarkClient } from './lark.client.js'

@Injectable()
@DocumentTransformerStrategy(LarkDocumentName)
export class LarkDocTransformerStrategy implements IDocumentTransformerStrategy<TDocumentTransformerConfig> {

  readonly permissions = [
    {
      type: 'integration',
      service: LarkName,
      description: 'Access to Lark system integrations'
    } as IntegrationPermission,
  ]

  readonly meta = {
    name: LarkDocumentName,
    label: {
      en_US: 'Lark Document',
      zh_Hans: '飞书文档'
    },
    description: {
      en_US: 'Load content from Lark documents',
      zh_Hans: '加载飞书文档内容'
    },
    icon: {
      type: 'image' as IconType,
      value: iconImage,
      color: '#14b8a6'
    },
    helpUrl: 'https://open.feishu.cn/document/server-docs/docs/docs-overview',
    configSchema: {
      type: 'object',
      properties: {},
      required: []
    }
  }

  validateConfig(config: any): Promise<void> {
    throw new Error('Method not implemented.')
  }

  async transformDocuments(
    files: Partial<IKnowledgeDocument<LarkDocumentMetadata>>[],
    config: TDocumentTransformerConfig
  ): Promise<Partial<IKnowledgeDocument<LarkDocumentMetadata>>[]> {
    const integration = config?.permissions?.integration
    if (!integration) {
      throw new Error('Integration system is required')
    }

    console.log('LarkDocTransformerStrategy transformDocuments', files, config)

    const client = new LarkClient(integration)
    
    const results: Partial<IKnowledgeDocument<LarkDocumentMetadata>>[] = []
    for await (const file of files) {
      const content = await client.getDocumentContent(file.metadata.token)
      results.push({
        id: file.id,
        chunks: [
          new Document({
            id: file.id,
            pageContent: content,
            metadata: {
              chunkId: file.id,
              source: LarkName,
              sourceId: file.id
            }
          })
        ],
        metadata: {
          assets: []
        } as LarkDocumentMetadata
      })
    }
    return results
  }
}

逻辑拆解

1. 装饰器与依赖注入

@Injectable()
@DocumentTransformerStrategy(LarkDocumentName)
  • @Injectable():NestJS 的依赖注入装饰器,表明这是一个可注入的服务。
  • @DocumentTransformerStrategy(LarkDocumentName):将当前类注册为 文档转换策略,并指定唯一的名字 LarkDocumentName。 👉 这样系统就能自动识别并使用该策略。

2. 权限定义

readonly permissions = [
  {
    type: 'integration',
    service: LarkName,
    description: 'Access to Lark system integrations'
  } as IntegrationPermission,
]
  • 插件需要具备 飞书集成的权限,否则无法调用 API 获取文档。
  • IntegrationPermission 声明了依赖的服务,这里是 LarkName(飞书)。

3. 元信息(meta)

readonly meta = {
  name: LarkDocumentName,
  label: {
    en_US: 'Lark Document',
    zh_Hans: '飞书文档'
  },
  description: {
    en_US: 'Load content from Lark documents',
    zh_Hans: '加载飞书文档内容'
  },
  icon: {
    type: 'image' as IconType,
    value: iconImage,
    color: '#14b8a6'
  },
  helpUrl: 'https://open.feishu.cn/document/server-docs/docs/docs-overview',
  configSchema: { ... }
}
  • 插件 UI 展示信息:名字、图标、描述、帮助文档链接。
  • configSchema:定义配置项(这里为空,表示无需额外参数)。

4. 配置校验

validateConfig(config: any): Promise<void> {
  throw new Error('Method not implemented.')
}
  • 占位方法,用于未来对配置进行校验。
  • 例如:检查是否传入了文档 ID 或 Token。

5. 文档转换核心逻辑

async transformDocuments(
  files: Partial<IKnowledgeDocument<LarkDocumentMetadata>>[],
  config: TDocumentTransformerConfig
): Promise<Partial<IKnowledgeDocument<LarkDocumentMetadata>>[]> {
  const integration = config?.permissions?.integration
  if (!integration) {
    throw new Error('Integration system is required')
  }

  const client = new LarkClient(integration)
  
  const results: Partial<IKnowledgeDocument<LarkDocumentMetadata>>[] = []
  for await (const file of files) {
    const content = await client.getDocumentContent(file.metadata.token)
    results.push({
      id: file.id,
      chunks: [
        new Document({
          id: file.id,
          pageContent: content,
          metadata: {
            chunkId: file.id,
            source: LarkName,
            sourceId: file.id
          }
        })
      ],
      metadata: {
        assets: []
      } as LarkDocumentMetadata
    })
  }
  return results
}
逐行解析:
  1. 获取集成信息
    const integration = config?.permissions?.integration
    if (!integration) throw new Error('Integration system is required')
    
    • 从配置中取出飞书的集成凭证。
    • 如果缺少凭证,则报错。
  2. 初始化客户端
    const client = new LarkClient(integration)
    
    • 使用凭证构造 LarkClient,用来访问飞书 API。
  3. 循环处理文件
    for await (const file of files) {
      const content = await client.getDocumentContent(file.metadata.token)
    }
    
    • 遍历待处理的文档列表。
    • 调用 client.getDocumentContent 根据 token 拉取文档正文。
  4. 构建转换后的文档
    results.push({
      id: file.id,
      chunks: [
        new Document({
          id: file.id,
          pageContent: content,
          metadata: {
            chunkId: file.id,
            source: LarkName,
            sourceId: file.id
          }
        })
      ],
      metadata: {
        assets: []
      } as LarkDocumentMetadata
    })
    
    • 每个飞书文档被转化为一个 IKnowledgeDocument
    • 核心内容放在 chunks 数组中。
    • metadata 存储额外信息(这里暂时只有 assets)。

整体执行流程

  1. 输入:一批飞书文档的元信息(文件 ID / Token)。
  2. 验证权限:确保有飞书的集成配置。
  3. API 调用:使用 LarkClient 拉取每个文档的正文。
  4. 转化为知识库格式
    • 包装为 IKnowledgeDocument
    • 内容切分为 Document(便于后续向量化处理)
  5. 输出:返回可被 Xpert AI 知识库使用的文档数组。

核心价值

  • 解耦:策略类不直接调用 API,而是依赖 LarkClient
  • 通用性:所有文档最终被统一转化为 IKnowledgeDocument,与平台的知识库无缝对接。
  • 可扩展:未来可以在 transformDocuments 中加入:
    • 文本清理(去掉空行/格式)
    • 内容切分(chunking)
    • 元数据增强(作者、标签、更新时间)