mirror of https://github.com/requarks/wiki
parent
7b060bec5f
commit
027b1614ff
@ -0,0 +1,16 @@
|
|||||||
|
{
|
||||||
|
"folders": [
|
||||||
|
{
|
||||||
|
"path": "ux"
|
||||||
|
},
|
||||||
|
{
|
||||||
|
"path": "server"
|
||||||
|
}
|
||||||
|
],
|
||||||
|
"settings": {
|
||||||
|
"i18n-ally.localesPaths": [
|
||||||
|
"src/i18n",
|
||||||
|
"src/i18n/locales"
|
||||||
|
]
|
||||||
|
}
|
||||||
|
}
|
@ -1,44 +1,53 @@
|
|||||||
// const _ = require('lodash')
|
const chalk = require('chalk')
|
||||||
const winston = require('winston')
|
const EventEmitter = require('events')
|
||||||
|
|
||||||
/* global WIKI */
|
/* global WIKI */
|
||||||
|
|
||||||
module.exports = {
|
const LEVELS = ['error', 'warn', 'info', 'debug']
|
||||||
loggers: {},
|
const LEVELSIGNORED = ['verbose', 'silly']
|
||||||
init(uid) {
|
const LEVELCOLORS = {
|
||||||
const loggerFormats = [
|
error: 'red',
|
||||||
winston.format.label({ label: uid }),
|
warn: 'yellow',
|
||||||
winston.format.timestamp()
|
info: 'green',
|
||||||
]
|
debug: 'cyan'
|
||||||
|
}
|
||||||
if (WIKI.config.logFormat === 'json') {
|
|
||||||
loggerFormats.push(winston.format.json())
|
class Logger extends EventEmitter {}
|
||||||
} else {
|
const primaryLogger = new Logger()
|
||||||
loggerFormats.push(winston.format.colorize())
|
|
||||||
loggerFormats.push(winston.format.printf(info => `${info.timestamp} [${info.label}] ${info.level}: ${info.message}`))
|
let ignoreNextLevels = false
|
||||||
}
|
|
||||||
|
|
||||||
const logger = winston.createLogger({
|
|
||||||
level: WIKI.config.logLevel,
|
|
||||||
format: winston.format.combine(...loggerFormats)
|
|
||||||
})
|
|
||||||
|
|
||||||
// Init Console (default)
|
LEVELS.forEach(lvl => {
|
||||||
|
primaryLogger[lvl] = (...args) => {
|
||||||
|
primaryLogger.emit(lvl, ...args)
|
||||||
|
}
|
||||||
|
|
||||||
logger.add(new winston.transports.Console({
|
if (!ignoreNextLevels) {
|
||||||
level: WIKI.config.logLevel,
|
primaryLogger.on(lvl, (msg) => {
|
||||||
prettyPrint: true,
|
if (WIKI.config.logFormat === 'json') {
|
||||||
colorize: true,
|
console.log(JSON.stringify({
|
||||||
silent: false,
|
timestamp: new Date().toISOString(),
|
||||||
timestamp: true
|
instance: WIKI.INSTANCE_ID,
|
||||||
}))
|
level: lvl,
|
||||||
|
message: msg
|
||||||
|
}))
|
||||||
|
} else {
|
||||||
|
console.log(chalk`${new Date().toISOString()} {dim [${WIKI.INSTANCE_ID}]} {${LEVELCOLORS[lvl]}.bold ${lvl}}: ${msg}`)
|
||||||
|
}
|
||||||
|
})
|
||||||
|
}
|
||||||
|
if (lvl === WIKI.config.logLevel) {
|
||||||
|
ignoreNextLevels = true
|
||||||
|
}
|
||||||
|
})
|
||||||
|
|
||||||
// _.forOwn(_.omitBy(WIKI.config.logging.loggers, s => s.enabled === false), (loggerConfig, loggerKey) => {
|
LEVELSIGNORED.forEach(lvl => {
|
||||||
// let loggerModule = require(`../modules/logging/${loggerKey}`)
|
primaryLogger[lvl] = () => {}
|
||||||
// loggerModule.init(logger, loggerConfig)
|
})
|
||||||
// this.loggers[logger.key] = loggerModule
|
|
||||||
// })
|
|
||||||
|
|
||||||
return logger
|
module.exports = {
|
||||||
|
loggers: {},
|
||||||
|
init () {
|
||||||
|
return primaryLogger
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
@ -1,64 +0,0 @@
|
|||||||
const _ = require('lodash')
|
|
||||||
const graphHelper = require('../../helpers/graph')
|
|
||||||
|
|
||||||
/* global WIKI */
|
|
||||||
|
|
||||||
module.exports = {
|
|
||||||
Query: {
|
|
||||||
async logging() { return {} }
|
|
||||||
},
|
|
||||||
Mutation: {
|
|
||||||
async logging() { return {} }
|
|
||||||
},
|
|
||||||
Subscription: {
|
|
||||||
loggingLiveTrail: {
|
|
||||||
subscribe: () => WIKI.GQLEmitter.asyncIterator('livetrail')
|
|
||||||
}
|
|
||||||
},
|
|
||||||
LoggingQuery: {
|
|
||||||
async loggers(obj, args, context, info) {
|
|
||||||
let loggers = await WIKI.models.loggers.getLoggers()
|
|
||||||
loggers = loggers.map(logger => {
|
|
||||||
const loggerInfo = _.find(WIKI.data.loggers, ['key', logger.key]) || {}
|
|
||||||
return {
|
|
||||||
...loggerInfo,
|
|
||||||
...logger,
|
|
||||||
config: _.sortBy(_.transform(logger.config, (res, value, key) => {
|
|
||||||
const configData = _.get(loggerInfo.props, key, {})
|
|
||||||
res.push({
|
|
||||||
key,
|
|
||||||
value: JSON.stringify({
|
|
||||||
...configData,
|
|
||||||
value
|
|
||||||
})
|
|
||||||
})
|
|
||||||
}, []), 'key')
|
|
||||||
}
|
|
||||||
})
|
|
||||||
// if (args.filter) { loggers = graphHelper.filter(loggers, args.filter) }
|
|
||||||
if (args.orderBy) { loggers = _.sortBy(loggers, [args.orderBy]) }
|
|
||||||
return loggers
|
|
||||||
}
|
|
||||||
},
|
|
||||||
LoggingMutation: {
|
|
||||||
async updateLoggers(obj, args, context) {
|
|
||||||
try {
|
|
||||||
for (let logger of args.loggers) {
|
|
||||||
await WIKI.models.loggers.query().patch({
|
|
||||||
isEnabled: logger.isEnabled,
|
|
||||||
level: logger.level,
|
|
||||||
config: _.reduce(logger.config, (result, value, key) => {
|
|
||||||
_.set(result, `${value.key}`, value.value)
|
|
||||||
return result
|
|
||||||
}, {})
|
|
||||||
}).where('key', logger.key)
|
|
||||||
}
|
|
||||||
return {
|
|
||||||
responseResult: graphHelper.generateSuccess('Loggers updated successfully')
|
|
||||||
}
|
|
||||||
} catch (err) {
|
|
||||||
return graphHelper.generateError(err)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,113 +0,0 @@
|
|||||||
const Model = require('objection').Model
|
|
||||||
const path = require('path')
|
|
||||||
const fs = require('fs-extra')
|
|
||||||
const _ = require('lodash')
|
|
||||||
const yaml = require('js-yaml')
|
|
||||||
const commonHelper = require('../helpers/common')
|
|
||||||
|
|
||||||
/* global WIKI */
|
|
||||||
|
|
||||||
/**
|
|
||||||
* Logger model
|
|
||||||
*/
|
|
||||||
module.exports = class Logger extends Model {
|
|
||||||
static get tableName() { return 'loggers' }
|
|
||||||
static get idColumn() { return 'key' }
|
|
||||||
|
|
||||||
static get jsonSchema () {
|
|
||||||
return {
|
|
||||||
type: 'object',
|
|
||||||
required: ['key', 'isEnabled'],
|
|
||||||
|
|
||||||
properties: {
|
|
||||||
key: {type: 'string'},
|
|
||||||
isEnabled: {type: 'boolean'},
|
|
||||||
level: {type: 'string'}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
static get jsonAttributes() {
|
|
||||||
return ['config']
|
|
||||||
}
|
|
||||||
|
|
||||||
static async getLoggers() {
|
|
||||||
return WIKI.models.loggers.query()
|
|
||||||
}
|
|
||||||
|
|
||||||
static async refreshLoggersFromDisk() {
|
|
||||||
let trx
|
|
||||||
try {
|
|
||||||
const dbLoggers = await WIKI.models.loggers.query()
|
|
||||||
|
|
||||||
// -> Fetch definitions from disk
|
|
||||||
const loggersDirs = await fs.readdir(path.join(WIKI.SERVERPATH, 'modules/logging'))
|
|
||||||
let diskLoggers = []
|
|
||||||
for (let dir of loggersDirs) {
|
|
||||||
const def = await fs.readFile(path.join(WIKI.SERVERPATH, 'modules/logging', dir, 'definition.yml'), 'utf8')
|
|
||||||
diskLoggers.push(yaml.safeLoad(def))
|
|
||||||
}
|
|
||||||
WIKI.data.loggers = diskLoggers.map(logger => ({
|
|
||||||
...logger,
|
|
||||||
props: commonHelper.parseModuleProps(logger.props)
|
|
||||||
}))
|
|
||||||
|
|
||||||
// -> Insert new loggers
|
|
||||||
let newLoggers = []
|
|
||||||
for (let logger of WIKI.data.loggers) {
|
|
||||||
if (!_.some(dbLoggers, ['key', logger.key])) {
|
|
||||||
newLoggers.push({
|
|
||||||
key: logger.key,
|
|
||||||
isEnabled: (logger.key === 'console'),
|
|
||||||
level: logger.defaultLevel,
|
|
||||||
config: _.transform(logger.props, (result, value, key) => {
|
|
||||||
_.set(result, key, value.default)
|
|
||||||
return result
|
|
||||||
}, {})
|
|
||||||
})
|
|
||||||
} else {
|
|
||||||
const loggerConfig = _.get(_.find(dbLoggers, ['key', logger.key]), 'config', {})
|
|
||||||
await WIKI.models.loggers.query().patch({
|
|
||||||
config: _.transform(logger.props, (result, value, key) => {
|
|
||||||
if (!_.has(result, key)) {
|
|
||||||
_.set(result, key, value.default)
|
|
||||||
}
|
|
||||||
return result
|
|
||||||
}, loggerConfig)
|
|
||||||
}).where('key', logger.key)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
if (newLoggers.length > 0) {
|
|
||||||
trx = await WIKI.models.Objection.transaction.start(WIKI.models.knex)
|
|
||||||
for (let logger of newLoggers) {
|
|
||||||
await WIKI.models.loggers.query(trx).insert(logger)
|
|
||||||
}
|
|
||||||
await trx.commit()
|
|
||||||
WIKI.logger.info(`Loaded ${newLoggers.length} new loggers: [ OK ]`)
|
|
||||||
} else {
|
|
||||||
WIKI.logger.info(`No new loggers found: [ SKIPPED ]`)
|
|
||||||
}
|
|
||||||
} catch (err) {
|
|
||||||
WIKI.logger.error(`Failed to scan or load new loggers: [ FAILED ]`)
|
|
||||||
WIKI.logger.error(err)
|
|
||||||
if (trx) {
|
|
||||||
trx.rollback()
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
static async pageEvent({ event, page }) {
|
|
||||||
const loggers = await WIKI.models.storage.query().where('isEnabled', true)
|
|
||||||
if (loggers && loggers.length > 0) {
|
|
||||||
_.forEach(loggers, logger => {
|
|
||||||
WIKI.queue.job.syncStorage.add({
|
|
||||||
event,
|
|
||||||
logger,
|
|
||||||
page
|
|
||||||
}, {
|
|
||||||
removeOnComplete: true
|
|
||||||
})
|
|
||||||
})
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,125 +0,0 @@
|
|||||||
const Model = require('objection').Model
|
|
||||||
const path = require('path')
|
|
||||||
const fs = require('fs-extra')
|
|
||||||
const _ = require('lodash')
|
|
||||||
const yaml = require('js-yaml')
|
|
||||||
const commonHelper = require('../helpers/common')
|
|
||||||
|
|
||||||
/* global WIKI */
|
|
||||||
|
|
||||||
/**
|
|
||||||
* SearchEngine model
|
|
||||||
*/
|
|
||||||
module.exports = class SearchEngine extends Model {
|
|
||||||
static get tableName() { return 'searchEngines' }
|
|
||||||
static get idColumn() { return 'key' }
|
|
||||||
|
|
||||||
static get jsonSchema () {
|
|
||||||
return {
|
|
||||||
type: 'object',
|
|
||||||
required: ['key', 'isEnabled'],
|
|
||||||
|
|
||||||
properties: {
|
|
||||||
key: {type: 'string'},
|
|
||||||
isEnabled: {type: 'boolean'},
|
|
||||||
level: {type: 'string'}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
static get jsonAttributes() {
|
|
||||||
return ['config']
|
|
||||||
}
|
|
||||||
|
|
||||||
static async getSearchEngines() {
|
|
||||||
return WIKI.models.searchEngines.query()
|
|
||||||
}
|
|
||||||
|
|
||||||
static async refreshSearchEnginesFromDisk() {
|
|
||||||
let trx
|
|
||||||
try {
|
|
||||||
const dbSearchEngines = await WIKI.models.searchEngines.query()
|
|
||||||
|
|
||||||
// -> Fetch definitions from disk
|
|
||||||
const searchEnginesDirs = await fs.readdir(path.join(WIKI.SERVERPATH, 'modules/search'))
|
|
||||||
let diskSearchEngines = []
|
|
||||||
for (let dir of searchEnginesDirs) {
|
|
||||||
const def = await fs.readFile(path.join(WIKI.SERVERPATH, 'modules/search', dir, 'definition.yml'), 'utf8')
|
|
||||||
diskSearchEngines.push(yaml.safeLoad(def))
|
|
||||||
}
|
|
||||||
WIKI.data.searchEngines = diskSearchEngines.map(searchEngine => ({
|
|
||||||
...searchEngine,
|
|
||||||
props: commonHelper.parseModuleProps(searchEngine.props)
|
|
||||||
}))
|
|
||||||
|
|
||||||
// -> Insert new searchEngines
|
|
||||||
let newSearchEngines = []
|
|
||||||
for (let searchEngine of WIKI.data.searchEngines) {
|
|
||||||
if (!_.some(dbSearchEngines, ['key', searchEngine.key])) {
|
|
||||||
newSearchEngines.push({
|
|
||||||
key: searchEngine.key,
|
|
||||||
isEnabled: false,
|
|
||||||
config: _.transform(searchEngine.props, (result, value, key) => {
|
|
||||||
_.set(result, key, value.default)
|
|
||||||
return result
|
|
||||||
}, {})
|
|
||||||
})
|
|
||||||
} else {
|
|
||||||
const searchEngineConfig = _.get(_.find(dbSearchEngines, ['key', searchEngine.key]), 'config', {})
|
|
||||||
await WIKI.models.searchEngines.query().patch({
|
|
||||||
config: _.transform(searchEngine.props, (result, value, key) => {
|
|
||||||
if (!_.has(result, key)) {
|
|
||||||
_.set(result, key, value.default)
|
|
||||||
}
|
|
||||||
return result
|
|
||||||
}, searchEngineConfig)
|
|
||||||
}).where('key', searchEngine.key)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
if (newSearchEngines.length > 0) {
|
|
||||||
trx = await WIKI.models.Objection.transaction.start(WIKI.models.knex)
|
|
||||||
for (let searchEngine of newSearchEngines) {
|
|
||||||
await WIKI.models.searchEngines.query(trx).insert(searchEngine)
|
|
||||||
}
|
|
||||||
await trx.commit()
|
|
||||||
WIKI.logger.info(`Loaded ${newSearchEngines.length} new search engines: [ OK ]`)
|
|
||||||
} else {
|
|
||||||
WIKI.logger.info(`No new search engines found: [ SKIPPED ]`)
|
|
||||||
}
|
|
||||||
} catch (err) {
|
|
||||||
WIKI.logger.error(`Failed to scan or load new search engines: [ FAILED ]`)
|
|
||||||
WIKI.logger.error(err)
|
|
||||||
if (trx) {
|
|
||||||
trx.rollback()
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
static async initEngine({ activate = false } = {}) {
|
|
||||||
const searchEngine = await WIKI.models.searchEngines.query().findOne('isEnabled', true)
|
|
||||||
if (searchEngine) {
|
|
||||||
WIKI.data.searchEngine = require(`../modules/search/${searchEngine.key}/engine`)
|
|
||||||
WIKI.data.searchEngine.key = searchEngine.key
|
|
||||||
WIKI.data.searchEngine.config = searchEngine.config
|
|
||||||
if (activate) {
|
|
||||||
try {
|
|
||||||
await WIKI.data.searchEngine.activate()
|
|
||||||
} catch (err) {
|
|
||||||
// -> Revert to basic engine
|
|
||||||
if (err instanceof WIKI.Error.SearchActivationFailed) {
|
|
||||||
await WIKI.models.searchEngines.query().patch({ isEnabled: false }).where('key', searchEngine.key)
|
|
||||||
await WIKI.models.searchEngines.query().patch({ isEnabled: true }).where('key', 'db')
|
|
||||||
await WIKI.models.searchEngines.initEngine()
|
|
||||||
}
|
|
||||||
throw err
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
try {
|
|
||||||
await WIKI.data.searchEngine.init()
|
|
||||||
} catch (err) {
|
|
||||||
WIKI.logger.warn(err)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
@ -0,0 +1,7 @@
|
|||||||
|
import { boot } from 'quasar/wrappers'
|
||||||
|
|
||||||
|
import BlueprintIcon from '../components/BlueprintIcon.vue'
|
||||||
|
|
||||||
|
export default boot(({ app }) => {
|
||||||
|
app.component('BlueprintIcon', BlueprintIcon)
|
||||||
|
})
|
Loading…
Reference in new issue