parent
c1b02380ac
commit
e97ed216f2
File diff suppressed because it is too large
Load Diff
@ -1,322 +0,0 @@
|
|||||||
// Copyright 2014 The Go Authors. All rights reserved.
|
|
||||||
// Use of this source code is governed by a BSD-style
|
|
||||||
// license that can be found in the LICENSE file.
|
|
||||||
|
|
||||||
package webdav
|
|
||||||
|
|
||||||
import (
|
|
||||||
"reflect"
|
|
||||||
"strings"
|
|
||||||
"testing"
|
|
||||||
)
|
|
||||||
|
|
||||||
func TestParseIfHeader(t *testing.T) {
|
|
||||||
// The "section x.y.z" test cases come from section x.y.z of the spec at
|
|
||||||
// http://www.webdav.org/specs/rfc4918.html
|
|
||||||
testCases := []struct {
|
|
||||||
desc string
|
|
||||||
input string
|
|
||||||
want ifHeader
|
|
||||||
}{{
|
|
||||||
"bad: empty",
|
|
||||||
``,
|
|
||||||
ifHeader{},
|
|
||||||
}, {
|
|
||||||
"bad: no parens",
|
|
||||||
`foobar`,
|
|
||||||
ifHeader{},
|
|
||||||
}, {
|
|
||||||
"bad: empty list #1",
|
|
||||||
`()`,
|
|
||||||
ifHeader{},
|
|
||||||
}, {
|
|
||||||
"bad: empty list #2",
|
|
||||||
`(a) (b c) () (d)`,
|
|
||||||
ifHeader{},
|
|
||||||
}, {
|
|
||||||
"bad: no list after resource #1",
|
|
||||||
`<foo>`,
|
|
||||||
ifHeader{},
|
|
||||||
}, {
|
|
||||||
"bad: no list after resource #2",
|
|
||||||
`<foo> <bar> (a)`,
|
|
||||||
ifHeader{},
|
|
||||||
}, {
|
|
||||||
"bad: no list after resource #3",
|
|
||||||
`<foo> (a) (b) <bar>`,
|
|
||||||
ifHeader{},
|
|
||||||
}, {
|
|
||||||
"bad: no-tag-list followed by tagged-list",
|
|
||||||
`(a) (b) <foo> (c)`,
|
|
||||||
ifHeader{},
|
|
||||||
}, {
|
|
||||||
"bad: unfinished list",
|
|
||||||
`(a`,
|
|
||||||
ifHeader{},
|
|
||||||
}, {
|
|
||||||
"bad: unfinished ETag",
|
|
||||||
`([b`,
|
|
||||||
ifHeader{},
|
|
||||||
}, {
|
|
||||||
"bad: unfinished Notted list",
|
|
||||||
`(Not a`,
|
|
||||||
ifHeader{},
|
|
||||||
}, {
|
|
||||||
"bad: double Not",
|
|
||||||
`(Not Not a)`,
|
|
||||||
ifHeader{},
|
|
||||||
}, {
|
|
||||||
"good: one list with a Token",
|
|
||||||
`(a)`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `a`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"good: one list with an ETag",
|
|
||||||
`([a])`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
conditions: []Condition{{
|
|
||||||
ETag: `a`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"good: one list with three Nots",
|
|
||||||
`(Not a Not b Not [d])`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
conditions: []Condition{{
|
|
||||||
Not: true,
|
|
||||||
Token: `a`,
|
|
||||||
}, {
|
|
||||||
Not: true,
|
|
||||||
Token: `b`,
|
|
||||||
}, {
|
|
||||||
Not: true,
|
|
||||||
ETag: `d`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"good: two lists",
|
|
||||||
`(a) (b)`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `a`,
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `b`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"good: two Notted lists",
|
|
||||||
`(Not a) (Not b)`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
conditions: []Condition{{
|
|
||||||
Not: true,
|
|
||||||
Token: `a`,
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
conditions: []Condition{{
|
|
||||||
Not: true,
|
|
||||||
Token: `b`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"section 7.5.1",
|
|
||||||
`<http://www.example.com/users/f/fielding/index.html>
|
|
||||||
(<urn:uuid:f81d4fae-7dec-11d0-a765-00a0c91e6bf6>)`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
resourceTag: `http://www.example.com/users/f/fielding/index.html`,
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `urn:uuid:f81d4fae-7dec-11d0-a765-00a0c91e6bf6`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"section 7.5.2 #1",
|
|
||||||
`(<urn:uuid:150852e2-3847-42d5-8cbe-0f4f296f26cf>)`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `urn:uuid:150852e2-3847-42d5-8cbe-0f4f296f26cf`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"section 7.5.2 #2",
|
|
||||||
`<http://example.com/locked/>
|
|
||||||
(<urn:uuid:150852e2-3847-42d5-8cbe-0f4f296f26cf>)`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
resourceTag: `http://example.com/locked/`,
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `urn:uuid:150852e2-3847-42d5-8cbe-0f4f296f26cf`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"section 7.5.2 #3",
|
|
||||||
`<http://example.com/locked/member>
|
|
||||||
(<urn:uuid:150852e2-3847-42d5-8cbe-0f4f296f26cf>)`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
resourceTag: `http://example.com/locked/member`,
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `urn:uuid:150852e2-3847-42d5-8cbe-0f4f296f26cf`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"section 9.9.6",
|
|
||||||
`(<urn:uuid:fe184f2e-6eec-41d0-c765-01adc56e6bb4>)
|
|
||||||
(<urn:uuid:e454f3f3-acdc-452a-56c7-00a5c91e4b77>)`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `urn:uuid:fe184f2e-6eec-41d0-c765-01adc56e6bb4`,
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `urn:uuid:e454f3f3-acdc-452a-56c7-00a5c91e4b77`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"section 9.10.8",
|
|
||||||
`(<urn:uuid:e71d4fae-5dec-22d6-fea5-00a0c91e6be4>)`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `urn:uuid:e71d4fae-5dec-22d6-fea5-00a0c91e6be4`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"section 10.4.6",
|
|
||||||
`(<urn:uuid:181d4fae-7d8c-11d0-a765-00a0c91e6bf2>
|
|
||||||
["I am an ETag"])
|
|
||||||
(["I am another ETag"])`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `urn:uuid:181d4fae-7d8c-11d0-a765-00a0c91e6bf2`,
|
|
||||||
}, {
|
|
||||||
ETag: `"I am an ETag"`,
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
conditions: []Condition{{
|
|
||||||
ETag: `"I am another ETag"`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"section 10.4.7",
|
|
||||||
`(Not <urn:uuid:181d4fae-7d8c-11d0-a765-00a0c91e6bf2>
|
|
||||||
<urn:uuid:58f202ac-22cf-11d1-b12d-002035b29092>)`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
conditions: []Condition{{
|
|
||||||
Not: true,
|
|
||||||
Token: `urn:uuid:181d4fae-7d8c-11d0-a765-00a0c91e6bf2`,
|
|
||||||
}, {
|
|
||||||
Token: `urn:uuid:58f202ac-22cf-11d1-b12d-002035b29092`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"section 10.4.8",
|
|
||||||
`(<urn:uuid:181d4fae-7d8c-11d0-a765-00a0c91e6bf2>)
|
|
||||||
(Not <DAV:no-lock>)`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `urn:uuid:181d4fae-7d8c-11d0-a765-00a0c91e6bf2`,
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
conditions: []Condition{{
|
|
||||||
Not: true,
|
|
||||||
Token: `DAV:no-lock`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"section 10.4.9",
|
|
||||||
`</resource1>
|
|
||||||
(<urn:uuid:181d4fae-7d8c-11d0-a765-00a0c91e6bf2>
|
|
||||||
[W/"A weak ETag"]) (["strong ETag"])`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
resourceTag: `/resource1`,
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `urn:uuid:181d4fae-7d8c-11d0-a765-00a0c91e6bf2`,
|
|
||||||
}, {
|
|
||||||
ETag: `W/"A weak ETag"`,
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
resourceTag: `/resource1`,
|
|
||||||
conditions: []Condition{{
|
|
||||||
ETag: `"strong ETag"`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"section 10.4.10",
|
|
||||||
`<http://www.example.com/specs/>
|
|
||||||
(<urn:uuid:181d4fae-7d8c-11d0-a765-00a0c91e6bf2>)`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
resourceTag: `http://www.example.com/specs/`,
|
|
||||||
conditions: []Condition{{
|
|
||||||
Token: `urn:uuid:181d4fae-7d8c-11d0-a765-00a0c91e6bf2`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"section 10.4.11 #1",
|
|
||||||
`</specs/rfc2518.doc> (["4217"])`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
resourceTag: `/specs/rfc2518.doc`,
|
|
||||||
conditions: []Condition{{
|
|
||||||
ETag: `"4217"`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"section 10.4.11 #2",
|
|
||||||
`</specs/rfc2518.doc> (Not ["4217"])`,
|
|
||||||
ifHeader{
|
|
||||||
lists: []ifList{{
|
|
||||||
resourceTag: `/specs/rfc2518.doc`,
|
|
||||||
conditions: []Condition{{
|
|
||||||
Not: true,
|
|
||||||
ETag: `"4217"`,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
},
|
|
||||||
}}
|
|
||||||
|
|
||||||
for _, tc := range testCases {
|
|
||||||
got, ok := parseIfHeader(strings.Replace(tc.input, "\n", "", -1))
|
|
||||||
if gotEmpty := reflect.DeepEqual(got, ifHeader{}); gotEmpty == ok {
|
|
||||||
t.Errorf("%s: should be different: empty header == %t, ok == %t", tc.desc, gotEmpty, ok)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
if !reflect.DeepEqual(got, tc.want) {
|
|
||||||
t.Errorf("%s:\ngot %v\nwant %v", tc.desc, got, tc.want)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,735 +0,0 @@
|
|||||||
// Copyright 2014 The Go Authors. All rights reserved.
|
|
||||||
// Use of this source code is governed by a BSD-style
|
|
||||||
// license that can be found in the LICENSE file.
|
|
||||||
|
|
||||||
package webdav
|
|
||||||
|
|
||||||
import (
|
|
||||||
"fmt"
|
|
||||||
"math/rand"
|
|
||||||
"path"
|
|
||||||
"reflect"
|
|
||||||
"sort"
|
|
||||||
"strconv"
|
|
||||||
"strings"
|
|
||||||
"testing"
|
|
||||||
"time"
|
|
||||||
)
|
|
||||||
|
|
||||||
func TestWalkToRoot(t *testing.T) {
|
|
||||||
testCases := []struct {
|
|
||||||
name string
|
|
||||||
want []string
|
|
||||||
}{{
|
|
||||||
"/a/b/c/d",
|
|
||||||
[]string{
|
|
||||||
"/a/b/c/d",
|
|
||||||
"/a/b/c",
|
|
||||||
"/a/b",
|
|
||||||
"/a",
|
|
||||||
"/",
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"/a",
|
|
||||||
[]string{
|
|
||||||
"/a",
|
|
||||||
"/",
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
"/",
|
|
||||||
[]string{
|
|
||||||
"/",
|
|
||||||
},
|
|
||||||
}}
|
|
||||||
|
|
||||||
for _, tc := range testCases {
|
|
||||||
var got []string
|
|
||||||
if !walkToRoot(tc.name, func(name0 string, first bool) bool {
|
|
||||||
if first != (len(got) == 0) {
|
|
||||||
t.Errorf("name=%q: first=%t but len(got)==%d", tc.name, first, len(got))
|
|
||||||
return false
|
|
||||||
}
|
|
||||||
got = append(got, name0)
|
|
||||||
return true
|
|
||||||
}) {
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
if !reflect.DeepEqual(got, tc.want) {
|
|
||||||
t.Errorf("name=%q:\ngot %q\nwant %q", tc.name, got, tc.want)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
var lockTestDurations = []time.Duration{
|
|
||||||
infiniteTimeout, // infiniteTimeout means to never expire.
|
|
||||||
0, // A zero duration means to expire immediately.
|
|
||||||
100 * time.Hour, // A very large duration will not expire in these tests.
|
|
||||||
}
|
|
||||||
|
|
||||||
// lockTestNames are the names of a set of mutually compatible locks. For each
|
|
||||||
// name fragment:
|
|
||||||
// - _ means no explicit lock.
|
|
||||||
// - i means an infinite-depth lock,
|
|
||||||
// - z means a zero-depth lock,
|
|
||||||
var lockTestNames = []string{
|
|
||||||
"/_/_/_/_/z",
|
|
||||||
"/_/_/i",
|
|
||||||
"/_/z",
|
|
||||||
"/_/z/i",
|
|
||||||
"/_/z/z",
|
|
||||||
"/_/z/_/i",
|
|
||||||
"/_/z/_/z",
|
|
||||||
"/i",
|
|
||||||
"/z",
|
|
||||||
"/z/_/i",
|
|
||||||
"/z/_/z",
|
|
||||||
}
|
|
||||||
|
|
||||||
func lockTestZeroDepth(name string) bool {
|
|
||||||
switch name[len(name)-1] {
|
|
||||||
case 'i':
|
|
||||||
return false
|
|
||||||
case 'z':
|
|
||||||
return true
|
|
||||||
}
|
|
||||||
panic(fmt.Sprintf("lock name %q did not end with 'i' or 'z'", name))
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestMemLSCanCreate(t *testing.T) {
|
|
||||||
now := time.Unix(0, 0)
|
|
||||||
m := NewMemLS().(*memLS)
|
|
||||||
|
|
||||||
for _, name := range lockTestNames {
|
|
||||||
_, err := m.Create(now, LockDetails{
|
|
||||||
Root: name,
|
|
||||||
Duration: infiniteTimeout,
|
|
||||||
ZeroDepth: lockTestZeroDepth(name),
|
|
||||||
})
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("creating lock for %q: %v", name, err)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
wantCanCreate := func(name string, zeroDepth bool) bool {
|
|
||||||
for _, n := range lockTestNames {
|
|
||||||
switch {
|
|
||||||
case n == name:
|
|
||||||
// An existing lock has the same name as the proposed lock.
|
|
||||||
return false
|
|
||||||
case strings.HasPrefix(n, name):
|
|
||||||
// An existing lock would be a child of the proposed lock,
|
|
||||||
// which conflicts if the proposed lock has infinite depth.
|
|
||||||
if !zeroDepth {
|
|
||||||
return false
|
|
||||||
}
|
|
||||||
case strings.HasPrefix(name, n):
|
|
||||||
// An existing lock would be an ancestor of the proposed lock,
|
|
||||||
// which conflicts if the ancestor has infinite depth.
|
|
||||||
if n[len(n)-1] == 'i' {
|
|
||||||
return false
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return true
|
|
||||||
}
|
|
||||||
|
|
||||||
var check func(int, string)
|
|
||||||
check = func(recursion int, name string) {
|
|
||||||
for _, zeroDepth := range []bool{false, true} {
|
|
||||||
got := m.canCreate(name, zeroDepth)
|
|
||||||
want := wantCanCreate(name, zeroDepth)
|
|
||||||
if got != want {
|
|
||||||
t.Errorf("canCreate name=%q zeroDepth=%t: got %t, want %t", name, zeroDepth, got, want)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
if recursion == 6 {
|
|
||||||
return
|
|
||||||
}
|
|
||||||
if name != "/" {
|
|
||||||
name += "/"
|
|
||||||
}
|
|
||||||
for _, c := range "_iz" {
|
|
||||||
check(recursion+1, name+string(c))
|
|
||||||
}
|
|
||||||
}
|
|
||||||
check(0, "/")
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestMemLSLookup(t *testing.T) {
|
|
||||||
now := time.Unix(0, 0)
|
|
||||||
m := NewMemLS().(*memLS)
|
|
||||||
|
|
||||||
badToken := m.nextToken()
|
|
||||||
t.Logf("badToken=%q", badToken)
|
|
||||||
|
|
||||||
for _, name := range lockTestNames {
|
|
||||||
token, err := m.Create(now, LockDetails{
|
|
||||||
Root: name,
|
|
||||||
Duration: infiniteTimeout,
|
|
||||||
ZeroDepth: lockTestZeroDepth(name),
|
|
||||||
})
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("creating lock for %q: %v", name, err)
|
|
||||||
}
|
|
||||||
t.Logf("%-15q -> node=%p token=%q", name, m.byName[name], token)
|
|
||||||
}
|
|
||||||
|
|
||||||
baseNames := append([]string{"/a", "/b/c"}, lockTestNames...)
|
|
||||||
for _, baseName := range baseNames {
|
|
||||||
for _, suffix := range []string{"", "/0", "/1/2/3"} {
|
|
||||||
name := baseName + suffix
|
|
||||||
|
|
||||||
goodToken := ""
|
|
||||||
base := m.byName[baseName]
|
|
||||||
if base != nil && (suffix == "" || !lockTestZeroDepth(baseName)) {
|
|
||||||
goodToken = base.token
|
|
||||||
}
|
|
||||||
|
|
||||||
for _, token := range []string{badToken, goodToken} {
|
|
||||||
if token == "" {
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
|
|
||||||
got := m.lookup(name, Condition{Token: token})
|
|
||||||
want := base
|
|
||||||
if token == badToken {
|
|
||||||
want = nil
|
|
||||||
}
|
|
||||||
if got != want {
|
|
||||||
t.Errorf("name=%-20qtoken=%q (bad=%t): got %p, want %p",
|
|
||||||
name, token, token == badToken, got, want)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestMemLSConfirm(t *testing.T) {
|
|
||||||
now := time.Unix(0, 0)
|
|
||||||
m := NewMemLS().(*memLS)
|
|
||||||
alice, err := m.Create(now, LockDetails{
|
|
||||||
Root: "/alice",
|
|
||||||
Duration: infiniteTimeout,
|
|
||||||
ZeroDepth: false,
|
|
||||||
})
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("Create: %v", err)
|
|
||||||
}
|
|
||||||
|
|
||||||
tweedle, err := m.Create(now, LockDetails{
|
|
||||||
Root: "/tweedle",
|
|
||||||
Duration: infiniteTimeout,
|
|
||||||
ZeroDepth: false,
|
|
||||||
})
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("Create: %v", err)
|
|
||||||
}
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("Create: inconsistent state: %v", err)
|
|
||||||
}
|
|
||||||
|
|
||||||
// Test a mismatch between name and condition.
|
|
||||||
_, err = m.Confirm(now, "/tweedle/dee", "", Condition{Token: alice})
|
|
||||||
if err != ErrConfirmationFailed {
|
|
||||||
t.Fatalf("Confirm (mismatch): got %v, want ErrConfirmationFailed", err)
|
|
||||||
}
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("Confirm (mismatch): inconsistent state: %v", err)
|
|
||||||
}
|
|
||||||
|
|
||||||
// Test two names (that fall under the same lock) in the one Confirm call.
|
|
||||||
release, err := m.Confirm(now, "/tweedle/dee", "/tweedle/dum", Condition{Token: tweedle})
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("Confirm (twins): %v", err)
|
|
||||||
}
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("Confirm (twins): inconsistent state: %v", err)
|
|
||||||
}
|
|
||||||
release()
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("release (twins): inconsistent state: %v", err)
|
|
||||||
}
|
|
||||||
|
|
||||||
// Test the same two names in overlapping Confirm / release calls.
|
|
||||||
releaseDee, err := m.Confirm(now, "/tweedle/dee", "", Condition{Token: tweedle})
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("Confirm (sequence #0): %v", err)
|
|
||||||
}
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("Confirm (sequence #0): inconsistent state: %v", err)
|
|
||||||
}
|
|
||||||
|
|
||||||
_, err = m.Confirm(now, "/tweedle/dum", "", Condition{Token: tweedle})
|
|
||||||
if err != ErrConfirmationFailed {
|
|
||||||
t.Fatalf("Confirm (sequence #1): got %v, want ErrConfirmationFailed", err)
|
|
||||||
}
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("Confirm (sequence #1): inconsistent state: %v", err)
|
|
||||||
}
|
|
||||||
|
|
||||||
releaseDee()
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("release (sequence #2): inconsistent state: %v", err)
|
|
||||||
}
|
|
||||||
|
|
||||||
releaseDum, err := m.Confirm(now, "/tweedle/dum", "", Condition{Token: tweedle})
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("Confirm (sequence #3): %v", err)
|
|
||||||
}
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("Confirm (sequence #3): inconsistent state: %v", err)
|
|
||||||
}
|
|
||||||
|
|
||||||
// Test that you can't unlock a held lock.
|
|
||||||
err = m.Unlock(now, tweedle)
|
|
||||||
if err != ErrLocked {
|
|
||||||
t.Fatalf("Unlock (sequence #4): got %v, want ErrLocked", err)
|
|
||||||
}
|
|
||||||
|
|
||||||
releaseDum()
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("release (sequence #5): inconsistent state: %v", err)
|
|
||||||
}
|
|
||||||
|
|
||||||
err = m.Unlock(now, tweedle)
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("Unlock (sequence #6): %v", err)
|
|
||||||
}
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("Unlock (sequence #6): inconsistent state: %v", err)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestMemLSNonCanonicalRoot(t *testing.T) {
|
|
||||||
now := time.Unix(0, 0)
|
|
||||||
m := NewMemLS().(*memLS)
|
|
||||||
token, err := m.Create(now, LockDetails{
|
|
||||||
Root: "/foo/./bar//",
|
|
||||||
Duration: 1 * time.Second,
|
|
||||||
})
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("Create: %v", err)
|
|
||||||
}
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("Create: inconsistent state: %v", err)
|
|
||||||
}
|
|
||||||
if err := m.Unlock(now, token); err != nil {
|
|
||||||
t.Fatalf("Unlock: %v", err)
|
|
||||||
}
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("Unlock: inconsistent state: %v", err)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestMemLSExpiry(t *testing.T) {
|
|
||||||
m := NewMemLS().(*memLS)
|
|
||||||
testCases := []string{
|
|
||||||
"setNow 0",
|
|
||||||
"create /a.5",
|
|
||||||
"want /a.5",
|
|
||||||
"create /c.6",
|
|
||||||
"want /a.5 /c.6",
|
|
||||||
"create /a/b.7",
|
|
||||||
"want /a.5 /a/b.7 /c.6",
|
|
||||||
"setNow 4",
|
|
||||||
"want /a.5 /a/b.7 /c.6",
|
|
||||||
"setNow 5",
|
|
||||||
"want /a/b.7 /c.6",
|
|
||||||
"setNow 6",
|
|
||||||
"want /a/b.7",
|
|
||||||
"setNow 7",
|
|
||||||
"want ",
|
|
||||||
"setNow 8",
|
|
||||||
"want ",
|
|
||||||
"create /a.12",
|
|
||||||
"create /b.13",
|
|
||||||
"create /c.15",
|
|
||||||
"create /a/d.16",
|
|
||||||
"want /a.12 /a/d.16 /b.13 /c.15",
|
|
||||||
"refresh /a.14",
|
|
||||||
"want /a.14 /a/d.16 /b.13 /c.15",
|
|
||||||
"setNow 12",
|
|
||||||
"want /a.14 /a/d.16 /b.13 /c.15",
|
|
||||||
"setNow 13",
|
|
||||||
"want /a.14 /a/d.16 /c.15",
|
|
||||||
"setNow 14",
|
|
||||||
"want /a/d.16 /c.15",
|
|
||||||
"refresh /a/d.20",
|
|
||||||
"refresh /c.20",
|
|
||||||
"want /a/d.20 /c.20",
|
|
||||||
"setNow 20",
|
|
||||||
"want ",
|
|
||||||
}
|
|
||||||
|
|
||||||
tokens := map[string]string{}
|
|
||||||
zTime := time.Unix(0, 0)
|
|
||||||
now := zTime
|
|
||||||
for i, tc := range testCases {
|
|
||||||
j := strings.IndexByte(tc, ' ')
|
|
||||||
if j < 0 {
|
|
||||||
t.Fatalf("test case #%d %q: invalid command", i, tc)
|
|
||||||
}
|
|
||||||
op, arg := tc[:j], tc[j+1:]
|
|
||||||
switch op {
|
|
||||||
default:
|
|
||||||
t.Fatalf("test case #%d %q: invalid operation %q", i, tc, op)
|
|
||||||
|
|
||||||
case "create", "refresh":
|
|
||||||
parts := strings.Split(arg, ".")
|
|
||||||
if len(parts) != 2 {
|
|
||||||
t.Fatalf("test case #%d %q: invalid create", i, tc)
|
|
||||||
}
|
|
||||||
root := parts[0]
|
|
||||||
d, err := strconv.Atoi(parts[1])
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("test case #%d %q: invalid duration", i, tc)
|
|
||||||
}
|
|
||||||
dur := time.Unix(0, 0).Add(time.Duration(d) * time.Second).Sub(now)
|
|
||||||
|
|
||||||
switch op {
|
|
||||||
case "create":
|
|
||||||
token, err := m.Create(now, LockDetails{
|
|
||||||
Root: root,
|
|
||||||
Duration: dur,
|
|
||||||
ZeroDepth: true,
|
|
||||||
})
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("test case #%d %q: Create: %v", i, tc, err)
|
|
||||||
}
|
|
||||||
tokens[root] = token
|
|
||||||
|
|
||||||
case "refresh":
|
|
||||||
token := tokens[root]
|
|
||||||
if token == "" {
|
|
||||||
t.Fatalf("test case #%d %q: no token for %q", i, tc, root)
|
|
||||||
}
|
|
||||||
got, err := m.Refresh(now, token, dur)
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("test case #%d %q: Refresh: %v", i, tc, err)
|
|
||||||
}
|
|
||||||
want := LockDetails{
|
|
||||||
Root: root,
|
|
||||||
Duration: dur,
|
|
||||||
ZeroDepth: true,
|
|
||||||
}
|
|
||||||
if got != want {
|
|
||||||
t.Fatalf("test case #%d %q:\ngot %v\nwant %v", i, tc, got, want)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
case "setNow":
|
|
||||||
d, err := strconv.Atoi(arg)
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("test case #%d %q: invalid duration", i, tc)
|
|
||||||
}
|
|
||||||
now = time.Unix(0, 0).Add(time.Duration(d) * time.Second)
|
|
||||||
|
|
||||||
case "want":
|
|
||||||
m.mu.Lock()
|
|
||||||
m.collectExpiredNodes(now)
|
|
||||||
got := make([]string, 0, len(m.byToken))
|
|
||||||
for _, n := range m.byToken {
|
|
||||||
got = append(got, fmt.Sprintf("%s.%d",
|
|
||||||
n.details.Root, n.expiry.Sub(zTime)/time.Second))
|
|
||||||
}
|
|
||||||
m.mu.Unlock()
|
|
||||||
sort.Strings(got)
|
|
||||||
want := []string{}
|
|
||||||
if arg != "" {
|
|
||||||
want = strings.Split(arg, " ")
|
|
||||||
}
|
|
||||||
if !reflect.DeepEqual(got, want) {
|
|
||||||
t.Fatalf("test case #%d %q:\ngot %q\nwant %q", i, tc, got, want)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("test case #%d %q: inconsistent state: %v", i, tc, err)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestMemLS(t *testing.T) {
|
|
||||||
now := time.Unix(0, 0)
|
|
||||||
m := NewMemLS().(*memLS)
|
|
||||||
rng := rand.New(rand.NewSource(0))
|
|
||||||
tokens := map[string]string{}
|
|
||||||
nConfirm, nCreate, nRefresh, nUnlock := 0, 0, 0, 0
|
|
||||||
const N = 2000
|
|
||||||
|
|
||||||
for i := 0; i < N; i++ {
|
|
||||||
name := lockTestNames[rng.Intn(len(lockTestNames))]
|
|
||||||
duration := lockTestDurations[rng.Intn(len(lockTestDurations))]
|
|
||||||
confirmed, unlocked := false, false
|
|
||||||
|
|
||||||
// If the name was already locked, we randomly confirm/release, refresh
|
|
||||||
// or unlock it. Otherwise, we create a lock.
|
|
||||||
token := tokens[name]
|
|
||||||
if token != "" {
|
|
||||||
switch rng.Intn(3) {
|
|
||||||
case 0:
|
|
||||||
confirmed = true
|
|
||||||
nConfirm++
|
|
||||||
release, err := m.Confirm(now, name, "", Condition{Token: token})
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("iteration #%d: Confirm %q: %v", i, name, err)
|
|
||||||
}
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("iteration #%d: inconsistent state: %v", i, err)
|
|
||||||
}
|
|
||||||
release()
|
|
||||||
|
|
||||||
case 1:
|
|
||||||
nRefresh++
|
|
||||||
if _, err := m.Refresh(now, token, duration); err != nil {
|
|
||||||
t.Fatalf("iteration #%d: Refresh %q: %v", i, name, err)
|
|
||||||
}
|
|
||||||
|
|
||||||
case 2:
|
|
||||||
unlocked = true
|
|
||||||
nUnlock++
|
|
||||||
if err := m.Unlock(now, token); err != nil {
|
|
||||||
t.Fatalf("iteration #%d: Unlock %q: %v", i, name, err)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
} else {
|
|
||||||
nCreate++
|
|
||||||
var err error
|
|
||||||
token, err = m.Create(now, LockDetails{
|
|
||||||
Root: name,
|
|
||||||
Duration: duration,
|
|
||||||
ZeroDepth: lockTestZeroDepth(name),
|
|
||||||
})
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("iteration #%d: Create %q: %v", i, name, err)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
if !confirmed {
|
|
||||||
if duration == 0 || unlocked {
|
|
||||||
// A zero-duration lock should expire immediately and is
|
|
||||||
// effectively equivalent to being unlocked.
|
|
||||||
tokens[name] = ""
|
|
||||||
} else {
|
|
||||||
tokens[name] = token
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
if err := m.consistent(); err != nil {
|
|
||||||
t.Fatalf("iteration #%d: inconsistent state: %v", i, err)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
if nConfirm < N/10 {
|
|
||||||
t.Fatalf("too few Confirm calls: got %d, want >= %d", nConfirm, N/10)
|
|
||||||
}
|
|
||||||
if nCreate < N/10 {
|
|
||||||
t.Fatalf("too few Create calls: got %d, want >= %d", nCreate, N/10)
|
|
||||||
}
|
|
||||||
if nRefresh < N/10 {
|
|
||||||
t.Fatalf("too few Refresh calls: got %d, want >= %d", nRefresh, N/10)
|
|
||||||
}
|
|
||||||
if nUnlock < N/10 {
|
|
||||||
t.Fatalf("too few Unlock calls: got %d, want >= %d", nUnlock, N/10)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func (m *memLS) consistent() error {
|
|
||||||
m.mu.Lock()
|
|
||||||
defer m.mu.Unlock()
|
|
||||||
|
|
||||||
// If m.byName is non-empty, then it must contain an entry for the root "/",
|
|
||||||
// and its refCount should equal the number of locked nodes.
|
|
||||||
if len(m.byName) > 0 {
|
|
||||||
n := m.byName["/"]
|
|
||||||
if n == nil {
|
|
||||||
return fmt.Errorf(`non-empty m.byName does not contain the root "/"`)
|
|
||||||
}
|
|
||||||
if n.refCount != len(m.byToken) {
|
|
||||||
return fmt.Errorf("root node refCount=%d, differs from len(m.byToken)=%d", n.refCount, len(m.byToken))
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
for name, n := range m.byName {
|
|
||||||
// The map keys should be consistent with the node's copy of the key.
|
|
||||||
if n.details.Root != name {
|
|
||||||
return fmt.Errorf("node name %q != byName map key %q", n.details.Root, name)
|
|
||||||
}
|
|
||||||
|
|
||||||
// A name must be clean, and start with a "/".
|
|
||||||
if len(name) == 0 || name[0] != '/' {
|
|
||||||
return fmt.Errorf(`node name %q does not start with "/"`, name)
|
|
||||||
}
|
|
||||||
if name != path.Clean(name) {
|
|
||||||
return fmt.Errorf(`node name %q is not clean`, name)
|
|
||||||
}
|
|
||||||
|
|
||||||
// A node's refCount should be positive.
|
|
||||||
if n.refCount <= 0 {
|
|
||||||
return fmt.Errorf("non-positive refCount for node at name %q", name)
|
|
||||||
}
|
|
||||||
|
|
||||||
// A node's refCount should be the number of self-or-descendents that
|
|
||||||
// are locked (i.e. have a non-empty token).
|
|
||||||
var list []string
|
|
||||||
for name0, n0 := range m.byName {
|
|
||||||
// All of lockTestNames' name fragments are one byte long: '_', 'i' or 'z',
|
|
||||||
// so strings.HasPrefix is equivalent to self-or-descendent name match.
|
|
||||||
// We don't have to worry about "/foo/bar" being a false positive match
|
|
||||||
// for "/foo/b".
|
|
||||||
if strings.HasPrefix(name0, name) && n0.token != "" {
|
|
||||||
list = append(list, name0)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
if n.refCount != len(list) {
|
|
||||||
sort.Strings(list)
|
|
||||||
return fmt.Errorf("node at name %q has refCount %d but locked self-or-descendents are %q (len=%d)",
|
|
||||||
name, n.refCount, list, len(list))
|
|
||||||
}
|
|
||||||
|
|
||||||
// A node n is in m.byToken if it has a non-empty token.
|
|
||||||
if n.token != "" {
|
|
||||||
if _, ok := m.byToken[n.token]; !ok {
|
|
||||||
return fmt.Errorf("node at name %q has token %q but not in m.byToken", name, n.token)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
// A node n is in m.byExpiry if it has a non-negative byExpiryIndex.
|
|
||||||
if n.byExpiryIndex >= 0 {
|
|
||||||
if n.byExpiryIndex >= len(m.byExpiry) {
|
|
||||||
return fmt.Errorf("node at name %q has byExpiryIndex %d but m.byExpiry has length %d", name, n.byExpiryIndex, len(m.byExpiry))
|
|
||||||
}
|
|
||||||
if n != m.byExpiry[n.byExpiryIndex] {
|
|
||||||
return fmt.Errorf("node at name %q has byExpiryIndex %d but that indexes a different node", name, n.byExpiryIndex)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
for token, n := range m.byToken {
|
|
||||||
// The map keys should be consistent with the node's copy of the key.
|
|
||||||
if n.token != token {
|
|
||||||
return fmt.Errorf("node token %q != byToken map key %q", n.token, token)
|
|
||||||
}
|
|
||||||
|
|
||||||
// Every node in m.byToken is in m.byName.
|
|
||||||
if _, ok := m.byName[n.details.Root]; !ok {
|
|
||||||
return fmt.Errorf("node at name %q in m.byToken but not in m.byName", n.details.Root)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
for i, n := range m.byExpiry {
|
|
||||||
// The slice indices should be consistent with the node's copy of the index.
|
|
||||||
if n.byExpiryIndex != i {
|
|
||||||
return fmt.Errorf("node byExpiryIndex %d != byExpiry slice index %d", n.byExpiryIndex, i)
|
|
||||||
}
|
|
||||||
|
|
||||||
// Every node in m.byExpiry is in m.byName.
|
|
||||||
if _, ok := m.byName[n.details.Root]; !ok {
|
|
||||||
return fmt.Errorf("node at name %q in m.byExpiry but not in m.byName", n.details.Root)
|
|
||||||
}
|
|
||||||
|
|
||||||
// No node in m.byExpiry should be held.
|
|
||||||
if n.held {
|
|
||||||
return fmt.Errorf("node at name %q in m.byExpiry is held", n.details.Root)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestParseTimeout(t *testing.T) {
|
|
||||||
testCases := []struct {
|
|
||||||
s string
|
|
||||||
want time.Duration
|
|
||||||
wantErr error
|
|
||||||
}{{
|
|
||||||
"",
|
|
||||||
infiniteTimeout,
|
|
||||||
nil,
|
|
||||||
}, {
|
|
||||||
"Infinite",
|
|
||||||
infiniteTimeout,
|
|
||||||
nil,
|
|
||||||
}, {
|
|
||||||
"Infinitesimal",
|
|
||||||
0,
|
|
||||||
errInvalidTimeout,
|
|
||||||
}, {
|
|
||||||
"infinite",
|
|
||||||
0,
|
|
||||||
errInvalidTimeout,
|
|
||||||
}, {
|
|
||||||
"Second-0",
|
|
||||||
0 * time.Second,
|
|
||||||
nil,
|
|
||||||
}, {
|
|
||||||
"Second-123",
|
|
||||||
123 * time.Second,
|
|
||||||
nil,
|
|
||||||
}, {
|
|
||||||
" Second-456 ",
|
|
||||||
456 * time.Second,
|
|
||||||
nil,
|
|
||||||
}, {
|
|
||||||
"Second-4100000000",
|
|
||||||
4100000000 * time.Second,
|
|
||||||
nil,
|
|
||||||
}, {
|
|
||||||
"junk",
|
|
||||||
0,
|
|
||||||
errInvalidTimeout,
|
|
||||||
}, {
|
|
||||||
"Second-",
|
|
||||||
0,
|
|
||||||
errInvalidTimeout,
|
|
||||||
}, {
|
|
||||||
"Second--1",
|
|
||||||
0,
|
|
||||||
errInvalidTimeout,
|
|
||||||
}, {
|
|
||||||
"Second--123",
|
|
||||||
0,
|
|
||||||
errInvalidTimeout,
|
|
||||||
}, {
|
|
||||||
"Second-+123",
|
|
||||||
0,
|
|
||||||
errInvalidTimeout,
|
|
||||||
}, {
|
|
||||||
"Second-0x123",
|
|
||||||
0,
|
|
||||||
errInvalidTimeout,
|
|
||||||
}, {
|
|
||||||
"second-123",
|
|
||||||
0,
|
|
||||||
errInvalidTimeout,
|
|
||||||
}, {
|
|
||||||
"Second-4294967295",
|
|
||||||
4294967295 * time.Second,
|
|
||||||
nil,
|
|
||||||
}, {
|
|
||||||
// Section 10.7 says that "The timeout value for TimeType "Second"
|
|
||||||
// must not be greater than 2^32-1."
|
|
||||||
"Second-4294967296",
|
|
||||||
0,
|
|
||||||
errInvalidTimeout,
|
|
||||||
}, {
|
|
||||||
// This test case comes from section 9.10.9 of the spec. It says,
|
|
||||||
//
|
|
||||||
// "In this request, the client has specified that it desires an
|
|
||||||
// infinite-length lock, if available, otherwise a timeout of 4.1
|
|
||||||
// billion seconds, if available."
|
|
||||||
//
|
|
||||||
// The Go WebDAV package always supports infinite length locks,
|
|
||||||
// and ignores the fallback after the comma.
|
|
||||||
"Infinite, Second-4100000000",
|
|
||||||
infiniteTimeout,
|
|
||||||
nil,
|
|
||||||
}}
|
|
||||||
|
|
||||||
for _, tc := range testCases {
|
|
||||||
got, gotErr := parseTimeout(tc.s)
|
|
||||||
if got != tc.want || gotErr != tc.wantErr {
|
|
||||||
t.Errorf("parsing %q:\ngot %v, %v\nwant %v, %v", tc.s, got, gotErr, tc.want, tc.wantErr)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,483 +0,0 @@
|
|||||||
package webdav
|
|
||||||
|
|
||||||
import (
|
|
||||||
"context"
|
|
||||||
"encoding/xml"
|
|
||||||
"io"
|
|
||||||
"net/http"
|
|
||||||
"os"
|
|
||||||
"path"
|
|
||||||
"strings"
|
|
||||||
"sync"
|
|
||||||
"time"
|
|
||||||
)
|
|
||||||
|
|
||||||
// NewMemFS returns a new in-memory FileSystem implementation.
|
|
||||||
func NewMemFS() FileSystem {
|
|
||||||
return &memFS{
|
|
||||||
root: memFSNode{
|
|
||||||
children: make(map[string]*memFSNode),
|
|
||||||
mode: 0660 | os.ModeDir,
|
|
||||||
modTime: time.Now(),
|
|
||||||
},
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
// A memFS implements FileSystem, storing all metadata and actual file data
|
|
||||||
// in-memory. No limits on filesystem size are used, so it is not recommended
|
|
||||||
// this be used where the clients are untrusted.
|
|
||||||
//
|
|
||||||
// Concurrent access is permitted. The tree structure is protected by a mutex,
|
|
||||||
// and each node's contents and metadata are protected by a per-node mutex.
|
|
||||||
//
|
|
||||||
// TODO: Enforce file permissions.
|
|
||||||
type memFS struct {
|
|
||||||
mu sync.Mutex
|
|
||||||
root memFSNode
|
|
||||||
}
|
|
||||||
|
|
||||||
// TODO: clean up and rationalize the walk/find code.
|
|
||||||
|
|
||||||
// walk walks the directory tree for the fullname, calling f at each step. If f
|
|
||||||
// returns an error, the walk will be aborted and return that same error.
|
|
||||||
//
|
|
||||||
// dir is the directory at that step, frag is the name fragment, and final is
|
|
||||||
// whether it is the final step. For example, walking "/foo/bar/x" will result
|
|
||||||
// in 3 calls to f:
|
|
||||||
// - "/", "foo", false
|
|
||||||
// - "/foo/", "bar", false
|
|
||||||
// - "/foo/bar/", "x", true
|
|
||||||
// The frag argument will be empty only if dir is the root node and the walk
|
|
||||||
// ends at that root node.
|
|
||||||
func (fs *memFS) walk(op, fullname string, f func(dir *memFSNode, frag string, final bool) error) error {
|
|
||||||
original := fullname
|
|
||||||
fullname = slashClean(fullname)
|
|
||||||
|
|
||||||
// Strip any leading "/"s to make fullname a relative path, as the walk
|
|
||||||
// starts at fs.root.
|
|
||||||
if fullname[0] == '/' {
|
|
||||||
fullname = fullname[1:]
|
|
||||||
}
|
|
||||||
dir := &fs.root
|
|
||||||
|
|
||||||
for {
|
|
||||||
frag, remaining := fullname, ""
|
|
||||||
i := strings.IndexRune(fullname, '/')
|
|
||||||
final := i < 0
|
|
||||||
if !final {
|
|
||||||
frag, remaining = fullname[:i], fullname[i+1:]
|
|
||||||
}
|
|
||||||
if frag == "" && dir != &fs.root {
|
|
||||||
panic("webdav: empty path fragment for a clean path")
|
|
||||||
}
|
|
||||||
if err := f(dir, frag, final); err != nil {
|
|
||||||
return &os.PathError{
|
|
||||||
Op: op,
|
|
||||||
Path: original,
|
|
||||||
Err: err,
|
|
||||||
}
|
|
||||||
}
|
|
||||||
if final {
|
|
||||||
break
|
|
||||||
}
|
|
||||||
child := dir.children[frag]
|
|
||||||
if child == nil {
|
|
||||||
return &os.PathError{
|
|
||||||
Op: op,
|
|
||||||
Path: original,
|
|
||||||
Err: os.ErrNotExist,
|
|
||||||
}
|
|
||||||
}
|
|
||||||
if !child.mode.IsDir() {
|
|
||||||
return &os.PathError{
|
|
||||||
Op: op,
|
|
||||||
Path: original,
|
|
||||||
Err: os.ErrInvalid,
|
|
||||||
}
|
|
||||||
}
|
|
||||||
dir, fullname = child, remaining
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
// find returns the parent of the named node and the relative name fragment
|
|
||||||
// from the parent to the child. For example, if finding "/foo/bar/baz" then
|
|
||||||
// parent will be the node for "/foo/bar" and frag will be "baz".
|
|
||||||
//
|
|
||||||
// If the fullname names the root node, then parent, frag and err will be zero.
|
|
||||||
//
|
|
||||||
// find returns an error if the parent does not already exist or the parent
|
|
||||||
// isn't a directory, but it will not return an error per se if the child does
|
|
||||||
// not already exist. The error returned is either nil or an *os.PathError
|
|
||||||
// whose Op is op.
|
|
||||||
func (fs *memFS) find(op, fullname string) (parent *memFSNode, frag string, err error) {
|
|
||||||
err = fs.walk(op, fullname, func(parent0 *memFSNode, frag0 string, final bool) error {
|
|
||||||
if !final {
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
if frag0 != "" {
|
|
||||||
parent, frag = parent0, frag0
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
})
|
|
||||||
return parent, frag, err
|
|
||||||
}
|
|
||||||
|
|
||||||
func (fs *memFS) Mkdir(ctx context.Context, name string, perm os.FileMode) error {
|
|
||||||
fs.mu.Lock()
|
|
||||||
defer fs.mu.Unlock()
|
|
||||||
|
|
||||||
dir, frag, err := fs.find("mkdir", name)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
if dir == nil {
|
|
||||||
// We can't create the root.
|
|
||||||
return os.ErrInvalid
|
|
||||||
}
|
|
||||||
if _, ok := dir.children[frag]; ok {
|
|
||||||
return os.ErrExist
|
|
||||||
}
|
|
||||||
dir.children[frag] = &memFSNode{
|
|
||||||
children: make(map[string]*memFSNode),
|
|
||||||
mode: perm.Perm() | os.ModeDir,
|
|
||||||
modTime: time.Now(),
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (fs *memFS) OpenFile(ctx context.Context, name string, flag int, perm os.FileMode) (File, error) {
|
|
||||||
fs.mu.Lock()
|
|
||||||
defer fs.mu.Unlock()
|
|
||||||
|
|
||||||
dir, frag, err := fs.find("open", name)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
var n *memFSNode
|
|
||||||
if dir == nil {
|
|
||||||
// We're opening the root.
|
|
||||||
if flag&(os.O_WRONLY|os.O_RDWR) != 0 {
|
|
||||||
return nil, os.ErrPermission
|
|
||||||
}
|
|
||||||
n, frag = &fs.root, "/"
|
|
||||||
|
|
||||||
} else {
|
|
||||||
n = dir.children[frag]
|
|
||||||
if flag&(os.O_SYNC|os.O_APPEND) != 0 {
|
|
||||||
// memFile doesn't support these flags yet.
|
|
||||||
return nil, os.ErrInvalid
|
|
||||||
}
|
|
||||||
if flag&os.O_CREATE != 0 {
|
|
||||||
if flag&os.O_EXCL != 0 && n != nil {
|
|
||||||
return nil, os.ErrExist
|
|
||||||
}
|
|
||||||
if n == nil {
|
|
||||||
n = &memFSNode{
|
|
||||||
mode: perm.Perm(),
|
|
||||||
}
|
|
||||||
dir.children[frag] = n
|
|
||||||
}
|
|
||||||
}
|
|
||||||
if n == nil {
|
|
||||||
return nil, os.ErrNotExist
|
|
||||||
}
|
|
||||||
if flag&(os.O_WRONLY|os.O_RDWR) != 0 && flag&os.O_TRUNC != 0 {
|
|
||||||
n.mu.Lock()
|
|
||||||
n.data = nil
|
|
||||||
n.mu.Unlock()
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
children := make([]os.FileInfo, 0, len(n.children))
|
|
||||||
for cName, c := range n.children {
|
|
||||||
children = append(children, c.stat(cName))
|
|
||||||
}
|
|
||||||
return &memFile{
|
|
||||||
n: n,
|
|
||||||
nameSnapshot: frag,
|
|
||||||
childrenSnapshot: children,
|
|
||||||
}, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (fs *memFS) RemoveAll(ctx context.Context, name string) error {
|
|
||||||
fs.mu.Lock()
|
|
||||||
defer fs.mu.Unlock()
|
|
||||||
|
|
||||||
dir, frag, err := fs.find("remove", name)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
if dir == nil {
|
|
||||||
// We can't remove the root.
|
|
||||||
return os.ErrInvalid
|
|
||||||
}
|
|
||||||
delete(dir.children, frag)
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (fs *memFS) Rename(ctx context.Context, oldName, newName string) error {
|
|
||||||
fs.mu.Lock()
|
|
||||||
defer fs.mu.Unlock()
|
|
||||||
|
|
||||||
oldName = slashClean(oldName)
|
|
||||||
newName = slashClean(newName)
|
|
||||||
if oldName == newName {
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
if strings.HasPrefix(newName, oldName+"/") {
|
|
||||||
// We can't rename oldName to be a sub-directory of itself.
|
|
||||||
return os.ErrInvalid
|
|
||||||
}
|
|
||||||
|
|
||||||
oDir, oFrag, err := fs.find("rename", oldName)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
if oDir == nil {
|
|
||||||
// We can't rename from the root.
|
|
||||||
return os.ErrInvalid
|
|
||||||
}
|
|
||||||
|
|
||||||
nDir, nFrag, err := fs.find("rename", newName)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
if nDir == nil {
|
|
||||||
// We can't rename to the root.
|
|
||||||
return os.ErrInvalid
|
|
||||||
}
|
|
||||||
|
|
||||||
oNode, ok := oDir.children[oFrag]
|
|
||||||
if !ok {
|
|
||||||
return os.ErrNotExist
|
|
||||||
}
|
|
||||||
if oNode.children != nil {
|
|
||||||
if nNode, ok := nDir.children[nFrag]; ok {
|
|
||||||
if nNode.children == nil {
|
|
||||||
return errNotADirectory
|
|
||||||
}
|
|
||||||
if len(nNode.children) != 0 {
|
|
||||||
return errDirectoryNotEmpty
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
delete(oDir.children, oFrag)
|
|
||||||
nDir.children[nFrag] = oNode
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (fs *memFS) Stat(ctx context.Context, name string) (os.FileInfo, error) {
|
|
||||||
fs.mu.Lock()
|
|
||||||
defer fs.mu.Unlock()
|
|
||||||
|
|
||||||
dir, frag, err := fs.find("stat", name)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
if dir == nil {
|
|
||||||
// We're stat'ting the root.
|
|
||||||
return fs.root.stat("/"), nil
|
|
||||||
}
|
|
||||||
if n, ok := dir.children[frag]; ok {
|
|
||||||
return n.stat(path.Base(name)), nil
|
|
||||||
}
|
|
||||||
return nil, os.ErrNotExist
|
|
||||||
}
|
|
||||||
|
|
||||||
// A memFSNode represents a single entry in the in-memory filesystem and also
|
|
||||||
// implements os.FileInfo.
|
|
||||||
type memFSNode struct {
|
|
||||||
// children is protected by memFS.mu.
|
|
||||||
children map[string]*memFSNode
|
|
||||||
|
|
||||||
mu sync.Mutex
|
|
||||||
data []byte
|
|
||||||
mode os.FileMode
|
|
||||||
modTime time.Time
|
|
||||||
deadProps map[xml.Name]Property
|
|
||||||
}
|
|
||||||
|
|
||||||
func (n *memFSNode) stat(name string) *memFileInfo {
|
|
||||||
n.mu.Lock()
|
|
||||||
defer n.mu.Unlock()
|
|
||||||
return &memFileInfo{
|
|
||||||
name: name,
|
|
||||||
size: int64(len(n.data)),
|
|
||||||
mode: n.mode,
|
|
||||||
modTime: n.modTime,
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func (n *memFSNode) DeadProps() (map[xml.Name]Property, error) {
|
|
||||||
n.mu.Lock()
|
|
||||||
defer n.mu.Unlock()
|
|
||||||
if len(n.deadProps) == 0 {
|
|
||||||
return nil, nil
|
|
||||||
}
|
|
||||||
ret := make(map[xml.Name]Property, len(n.deadProps))
|
|
||||||
for k, v := range n.deadProps {
|
|
||||||
ret[k] = v
|
|
||||||
}
|
|
||||||
return ret, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (n *memFSNode) Patch(patches []Proppatch) ([]Propstat, error) {
|
|
||||||
n.mu.Lock()
|
|
||||||
defer n.mu.Unlock()
|
|
||||||
pstat := Propstat{Status: http.StatusOK}
|
|
||||||
for _, patch := range patches {
|
|
||||||
for _, p := range patch.Props {
|
|
||||||
pstat.Props = append(pstat.Props, Property{XMLName: p.XMLName})
|
|
||||||
if patch.Remove {
|
|
||||||
delete(n.deadProps, p.XMLName)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
if n.deadProps == nil {
|
|
||||||
n.deadProps = map[xml.Name]Property{}
|
|
||||||
}
|
|
||||||
n.deadProps[p.XMLName] = p
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return []Propstat{pstat}, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
type memFileInfo struct {
|
|
||||||
name string
|
|
||||||
size int64
|
|
||||||
mode os.FileMode
|
|
||||||
modTime time.Time
|
|
||||||
}
|
|
||||||
|
|
||||||
func (f *memFileInfo) Name() string { return f.name }
|
|
||||||
func (f *memFileInfo) Size() int64 { return f.size }
|
|
||||||
func (f *memFileInfo) Mode() os.FileMode { return f.mode }
|
|
||||||
func (f *memFileInfo) ModTime() time.Time { return f.modTime }
|
|
||||||
func (f *memFileInfo) IsDir() bool { return f.mode.IsDir() }
|
|
||||||
func (f *memFileInfo) Sys() interface{} { return nil }
|
|
||||||
|
|
||||||
// A memFile is a File implementation for a memFSNode. It is a per-file (not
|
|
||||||
// per-node) read/write position, and a snapshot of the memFS' tree structure
|
|
||||||
// (a node's name and children) for that node.
|
|
||||||
type memFile struct {
|
|
||||||
n *memFSNode
|
|
||||||
nameSnapshot string
|
|
||||||
childrenSnapshot []os.FileInfo
|
|
||||||
// pos is protected by n.mu.
|
|
||||||
pos int
|
|
||||||
}
|
|
||||||
|
|
||||||
// A *memFile implements the optional DeadPropsHolder interface.
|
|
||||||
var _ DeadPropsHolder = (*memFile)(nil)
|
|
||||||
|
|
||||||
func (f *memFile) DeadProps() (map[xml.Name]Property, error) { return f.n.DeadProps() }
|
|
||||||
func (f *memFile) Patch(patches []Proppatch) ([]Propstat, error) { return f.n.Patch(patches) }
|
|
||||||
|
|
||||||
func (f *memFile) Close() error {
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (f *memFile) Read(p []byte) (int, error) {
|
|
||||||
f.n.mu.Lock()
|
|
||||||
defer f.n.mu.Unlock()
|
|
||||||
if f.n.mode.IsDir() {
|
|
||||||
return 0, os.ErrInvalid
|
|
||||||
}
|
|
||||||
if f.pos >= len(f.n.data) {
|
|
||||||
return 0, io.EOF
|
|
||||||
}
|
|
||||||
n := copy(p, f.n.data[f.pos:])
|
|
||||||
f.pos += n
|
|
||||||
return n, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (f *memFile) Readdir(count int) ([]os.FileInfo, error) {
|
|
||||||
f.n.mu.Lock()
|
|
||||||
defer f.n.mu.Unlock()
|
|
||||||
if !f.n.mode.IsDir() {
|
|
||||||
return nil, os.ErrInvalid
|
|
||||||
}
|
|
||||||
old := f.pos
|
|
||||||
if old >= len(f.childrenSnapshot) {
|
|
||||||
// The os.File Readdir docs say that at the end of a directory,
|
|
||||||
// the error is io.EOF if count > 0 and nil if count <= 0.
|
|
||||||
if count > 0 {
|
|
||||||
return nil, io.EOF
|
|
||||||
}
|
|
||||||
return nil, nil
|
|
||||||
}
|
|
||||||
if count > 0 {
|
|
||||||
f.pos += count
|
|
||||||
if f.pos > len(f.childrenSnapshot) {
|
|
||||||
f.pos = len(f.childrenSnapshot)
|
|
||||||
}
|
|
||||||
} else {
|
|
||||||
f.pos = len(f.childrenSnapshot)
|
|
||||||
old = 0
|
|
||||||
}
|
|
||||||
return f.childrenSnapshot[old:f.pos], nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (f *memFile) Seek(offset int64, whence int) (int64, error) {
|
|
||||||
f.n.mu.Lock()
|
|
||||||
defer f.n.mu.Unlock()
|
|
||||||
npos := f.pos
|
|
||||||
// TODO: How to handle offsets greater than the size of system int?
|
|
||||||
switch whence {
|
|
||||||
case os.SEEK_SET:
|
|
||||||
npos = int(offset)
|
|
||||||
case os.SEEK_CUR:
|
|
||||||
npos += int(offset)
|
|
||||||
case os.SEEK_END:
|
|
||||||
npos = len(f.n.data) + int(offset)
|
|
||||||
default:
|
|
||||||
npos = -1
|
|
||||||
}
|
|
||||||
if npos < 0 {
|
|
||||||
return 0, os.ErrInvalid
|
|
||||||
}
|
|
||||||
f.pos = npos
|
|
||||||
return int64(f.pos), nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (f *memFile) Stat() (os.FileInfo, error) {
|
|
||||||
return f.n.stat(f.nameSnapshot), nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func (f *memFile) Write(p []byte) (int, error) {
|
|
||||||
lenp := len(p)
|
|
||||||
f.n.mu.Lock()
|
|
||||||
defer f.n.mu.Unlock()
|
|
||||||
|
|
||||||
if f.n.mode.IsDir() {
|
|
||||||
return 0, os.ErrInvalid
|
|
||||||
}
|
|
||||||
if f.pos < len(f.n.data) {
|
|
||||||
n := copy(f.n.data[f.pos:], p)
|
|
||||||
f.pos += n
|
|
||||||
p = p[n:]
|
|
||||||
} else if f.pos > len(f.n.data) {
|
|
||||||
// Write permits the creation of holes, if we've seek'ed past the
|
|
||||||
// existing end of file.
|
|
||||||
if f.pos <= cap(f.n.data) {
|
|
||||||
oldLen := len(f.n.data)
|
|
||||||
f.n.data = f.n.data[:f.pos]
|
|
||||||
hole := f.n.data[oldLen:]
|
|
||||||
for i := range hole {
|
|
||||||
hole[i] = 0
|
|
||||||
}
|
|
||||||
} else {
|
|
||||||
d := make([]byte, f.pos, f.pos+len(p))
|
|
||||||
copy(d, f.n.data)
|
|
||||||
f.n.data = d
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
if len(p) > 0 {
|
|
||||||
// We should only get here if f.pos == len(f.n.data).
|
|
||||||
f.n.data = append(f.n.data, p...)
|
|
||||||
f.pos = len(f.n.data)
|
|
||||||
}
|
|
||||||
f.n.modTime = time.Now()
|
|
||||||
return lenp, nil
|
|
||||||
}
|
|
@ -1,716 +0,0 @@
|
|||||||
// Copyright 2015 The Go Authors. All rights reserved.
|
|
||||||
// Use of this source code is governed by a BSD-style
|
|
||||||
// license that can be found in the LICENSE file.
|
|
||||||
|
|
||||||
package webdav
|
|
||||||
|
|
||||||
import (
|
|
||||||
"context"
|
|
||||||
"encoding/xml"
|
|
||||||
"fmt"
|
|
||||||
"net/http"
|
|
||||||
"os"
|
|
||||||
"reflect"
|
|
||||||
"regexp"
|
|
||||||
"sort"
|
|
||||||
"testing"
|
|
||||||
)
|
|
||||||
|
|
||||||
func TestMemPS(t *testing.T) {
|
|
||||||
ctx := context.Background()
|
|
||||||
// calcProps calculates the getlastmodified and getetag DAV: property
|
|
||||||
// values in pstats for resource name in file-system fs.
|
|
||||||
calcProps := func(name string, fs FileSystem, ls LockSystem, pstats []Propstat) error {
|
|
||||||
fi, err := fs.Stat(ctx, name)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
for _, pst := range pstats {
|
|
||||||
for i, p := range pst.Props {
|
|
||||||
switch p.XMLName {
|
|
||||||
case xml.Name{Space: "DAV:", Local: "getlastmodified"}:
|
|
||||||
p.InnerXML = []byte(fi.ModTime().UTC().Format(http.TimeFormat))
|
|
||||||
pst.Props[i] = p
|
|
||||||
case xml.Name{Space: "DAV:", Local: "getetag"}:
|
|
||||||
if fi.IsDir() {
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
etag, err := findETag(ctx, fs, ls, name, fi)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
p.InnerXML = []byte(etag)
|
|
||||||
pst.Props[i] = p
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return nil
|
|
||||||
}
|
|
||||||
|
|
||||||
const (
|
|
||||||
lockEntry = `` +
|
|
||||||
`<D:lockentry xmlns:D="DAV:">` +
|
|
||||||
`<D:lockscope><D:exclusive/></D:lockscope>` +
|
|
||||||
`<D:locktype><D:write/></D:locktype>` +
|
|
||||||
`</D:lockentry>`
|
|
||||||
statForbiddenError = `<D:cannot-modify-protected-property xmlns:D="DAV:"/>`
|
|
||||||
)
|
|
||||||
|
|
||||||
type propOp struct {
|
|
||||||
op string
|
|
||||||
name string
|
|
||||||
pnames []xml.Name
|
|
||||||
patches []Proppatch
|
|
||||||
wantPnames []xml.Name
|
|
||||||
wantPropstats []Propstat
|
|
||||||
}
|
|
||||||
|
|
||||||
testCases := []struct {
|
|
||||||
desc string
|
|
||||||
noDeadProps bool
|
|
||||||
buildfs []string
|
|
||||||
propOp []propOp
|
|
||||||
}{{
|
|
||||||
desc: "propname",
|
|
||||||
buildfs: []string{"mkdir /dir", "touch /file"},
|
|
||||||
propOp: []propOp{{
|
|
||||||
op: "propname",
|
|
||||||
name: "/dir",
|
|
||||||
wantPnames: []xml.Name{
|
|
||||||
{Space: "DAV:", Local: "resourcetype"},
|
|
||||||
{Space: "DAV:", Local: "displayname"},
|
|
||||||
{Space: "DAV:", Local: "supportedlock"},
|
|
||||||
{Space: "DAV:", Local: "getlastmodified"},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
op: "propname",
|
|
||||||
name: "/file",
|
|
||||||
wantPnames: []xml.Name{
|
|
||||||
{Space: "DAV:", Local: "resourcetype"},
|
|
||||||
{Space: "DAV:", Local: "displayname"},
|
|
||||||
{Space: "DAV:", Local: "getcontentlength"},
|
|
||||||
{Space: "DAV:", Local: "getlastmodified"},
|
|
||||||
{Space: "DAV:", Local: "getcontenttype"},
|
|
||||||
{Space: "DAV:", Local: "getetag"},
|
|
||||||
{Space: "DAV:", Local: "supportedlock"},
|
|
||||||
},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
desc: "allprop dir and file",
|
|
||||||
buildfs: []string{"mkdir /dir", "write /file foobarbaz"},
|
|
||||||
propOp: []propOp{{
|
|
||||||
op: "allprop",
|
|
||||||
name: "/dir",
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "resourcetype"},
|
|
||||||
InnerXML: []byte(`<D:collection xmlns:D="DAV:"/>`),
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "displayname"},
|
|
||||||
InnerXML: []byte("dir"),
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getlastmodified"},
|
|
||||||
InnerXML: nil, // Calculated during test.
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "supportedlock"},
|
|
||||||
InnerXML: []byte(lockEntry),
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
op: "allprop",
|
|
||||||
name: "/file",
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "resourcetype"},
|
|
||||||
InnerXML: []byte(""),
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "displayname"},
|
|
||||||
InnerXML: []byte("file"),
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getcontentlength"},
|
|
||||||
InnerXML: []byte("9"),
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getlastmodified"},
|
|
||||||
InnerXML: nil, // Calculated during test.
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getcontenttype"},
|
|
||||||
InnerXML: []byte("text/plain; charset=utf-8"),
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getetag"},
|
|
||||||
InnerXML: nil, // Calculated during test.
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "supportedlock"},
|
|
||||||
InnerXML: []byte(lockEntry),
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
op: "allprop",
|
|
||||||
name: "/file",
|
|
||||||
pnames: []xml.Name{
|
|
||||||
{"DAV:", "resourcetype"},
|
|
||||||
{"foo", "bar"},
|
|
||||||
},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "resourcetype"},
|
|
||||||
InnerXML: []byte(""),
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "displayname"},
|
|
||||||
InnerXML: []byte("file"),
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getcontentlength"},
|
|
||||||
InnerXML: []byte("9"),
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getlastmodified"},
|
|
||||||
InnerXML: nil, // Calculated during test.
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getcontenttype"},
|
|
||||||
InnerXML: []byte("text/plain; charset=utf-8"),
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getetag"},
|
|
||||||
InnerXML: nil, // Calculated during test.
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "supportedlock"},
|
|
||||||
InnerXML: []byte(lockEntry),
|
|
||||||
}}}, {
|
|
||||||
Status: http.StatusNotFound,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
}}},
|
|
||||||
},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
desc: "propfind DAV:resourcetype",
|
|
||||||
buildfs: []string{"mkdir /dir", "touch /file"},
|
|
||||||
propOp: []propOp{{
|
|
||||||
op: "propfind",
|
|
||||||
name: "/dir",
|
|
||||||
pnames: []xml.Name{{"DAV:", "resourcetype"}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "resourcetype"},
|
|
||||||
InnerXML: []byte(`<D:collection xmlns:D="DAV:"/>`),
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
op: "propfind",
|
|
||||||
name: "/file",
|
|
||||||
pnames: []xml.Name{{"DAV:", "resourcetype"}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "resourcetype"},
|
|
||||||
InnerXML: []byte(""),
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
desc: "propfind unsupported DAV properties",
|
|
||||||
buildfs: []string{"mkdir /dir"},
|
|
||||||
propOp: []propOp{{
|
|
||||||
op: "propfind",
|
|
||||||
name: "/dir",
|
|
||||||
pnames: []xml.Name{{"DAV:", "getcontentlanguage"}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusNotFound,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getcontentlanguage"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
op: "propfind",
|
|
||||||
name: "/dir",
|
|
||||||
pnames: []xml.Name{{"DAV:", "creationdate"}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusNotFound,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "creationdate"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
desc: "propfind getetag for files but not for directories",
|
|
||||||
buildfs: []string{"mkdir /dir", "touch /file"},
|
|
||||||
propOp: []propOp{{
|
|
||||||
op: "propfind",
|
|
||||||
name: "/dir",
|
|
||||||
pnames: []xml.Name{{"DAV:", "getetag"}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusNotFound,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getetag"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
op: "propfind",
|
|
||||||
name: "/file",
|
|
||||||
pnames: []xml.Name{{"DAV:", "getetag"}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getetag"},
|
|
||||||
InnerXML: nil, // Calculated during test.
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
desc: "proppatch property on no-dead-properties file system",
|
|
||||||
buildfs: []string{"mkdir /dir"},
|
|
||||||
noDeadProps: true,
|
|
||||||
propOp: []propOp{{
|
|
||||||
op: "proppatch",
|
|
||||||
name: "/dir",
|
|
||||||
patches: []Proppatch{{
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusForbidden,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
op: "proppatch",
|
|
||||||
name: "/dir",
|
|
||||||
patches: []Proppatch{{
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getetag"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusForbidden,
|
|
||||||
XMLError: statForbiddenError,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "getetag"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
desc: "proppatch dead property",
|
|
||||||
buildfs: []string{"mkdir /dir"},
|
|
||||||
propOp: []propOp{{
|
|
||||||
op: "proppatch",
|
|
||||||
name: "/dir",
|
|
||||||
patches: []Proppatch{{
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
InnerXML: []byte("baz"),
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
op: "propfind",
|
|
||||||
name: "/dir",
|
|
||||||
pnames: []xml.Name{{Space: "foo", Local: "bar"}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
InnerXML: []byte("baz"),
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
desc: "proppatch dead property with failed dependency",
|
|
||||||
buildfs: []string{"mkdir /dir"},
|
|
||||||
propOp: []propOp{{
|
|
||||||
op: "proppatch",
|
|
||||||
name: "/dir",
|
|
||||||
patches: []Proppatch{{
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
InnerXML: []byte("baz"),
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "displayname"},
|
|
||||||
InnerXML: []byte("xxx"),
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusForbidden,
|
|
||||||
XMLError: statForbiddenError,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "DAV:", Local: "displayname"},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
Status: StatusFailedDependency,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
op: "propfind",
|
|
||||||
name: "/dir",
|
|
||||||
pnames: []xml.Name{{Space: "foo", Local: "bar"}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusNotFound,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
desc: "proppatch remove dead property",
|
|
||||||
buildfs: []string{"mkdir /dir"},
|
|
||||||
propOp: []propOp{{
|
|
||||||
op: "proppatch",
|
|
||||||
name: "/dir",
|
|
||||||
patches: []Proppatch{{
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
InnerXML: []byte("baz"),
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "spam", Local: "ham"},
|
|
||||||
InnerXML: []byte("eggs"),
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "spam", Local: "ham"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
op: "propfind",
|
|
||||||
name: "/dir",
|
|
||||||
pnames: []xml.Name{
|
|
||||||
{Space: "foo", Local: "bar"},
|
|
||||||
{Space: "spam", Local: "ham"},
|
|
||||||
},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
InnerXML: []byte("baz"),
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "spam", Local: "ham"},
|
|
||||||
InnerXML: []byte("eggs"),
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
op: "proppatch",
|
|
||||||
name: "/dir",
|
|
||||||
patches: []Proppatch{{
|
|
||||||
Remove: true,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
op: "propfind",
|
|
||||||
name: "/dir",
|
|
||||||
pnames: []xml.Name{
|
|
||||||
{Space: "foo", Local: "bar"},
|
|
||||||
{Space: "spam", Local: "ham"},
|
|
||||||
},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusNotFound,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "spam", Local: "ham"},
|
|
||||||
InnerXML: []byte("eggs"),
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
desc: "propname with dead property",
|
|
||||||
buildfs: []string{"touch /file"},
|
|
||||||
propOp: []propOp{{
|
|
||||||
op: "proppatch",
|
|
||||||
name: "/file",
|
|
||||||
patches: []Proppatch{{
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
InnerXML: []byte("baz"),
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
op: "propname",
|
|
||||||
name: "/file",
|
|
||||||
wantPnames: []xml.Name{
|
|
||||||
{Space: "DAV:", Local: "resourcetype"},
|
|
||||||
{Space: "DAV:", Local: "displayname"},
|
|
||||||
{Space: "DAV:", Local: "getcontentlength"},
|
|
||||||
{Space: "DAV:", Local: "getlastmodified"},
|
|
||||||
{Space: "DAV:", Local: "getcontenttype"},
|
|
||||||
{Space: "DAV:", Local: "getetag"},
|
|
||||||
{Space: "DAV:", Local: "supportedlock"},
|
|
||||||
{Space: "foo", Local: "bar"},
|
|
||||||
},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
desc: "proppatch remove unknown dead property",
|
|
||||||
buildfs: []string{"mkdir /dir"},
|
|
||||||
propOp: []propOp{{
|
|
||||||
op: "proppatch",
|
|
||||||
name: "/dir",
|
|
||||||
patches: []Proppatch{{
|
|
||||||
Remove: true,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusOK,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo", Local: "bar"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
desc: "bad: propfind unknown property",
|
|
||||||
buildfs: []string{"mkdir /dir"},
|
|
||||||
propOp: []propOp{{
|
|
||||||
op: "propfind",
|
|
||||||
name: "/dir",
|
|
||||||
pnames: []xml.Name{{"foo:", "bar"}},
|
|
||||||
wantPropstats: []Propstat{{
|
|
||||||
Status: http.StatusNotFound,
|
|
||||||
Props: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "foo:", Local: "bar"},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}}
|
|
||||||
|
|
||||||
for _, tc := range testCases {
|
|
||||||
fs, err := buildTestFS(tc.buildfs)
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("%s: cannot create test filesystem: %v", tc.desc, err)
|
|
||||||
}
|
|
||||||
if tc.noDeadProps {
|
|
||||||
fs = noDeadPropsFS{fs}
|
|
||||||
}
|
|
||||||
ls := NewMemLS()
|
|
||||||
for _, op := range tc.propOp {
|
|
||||||
desc := fmt.Sprintf("%s: %s %s", tc.desc, op.op, op.name)
|
|
||||||
if err = calcProps(op.name, fs, ls, op.wantPropstats); err != nil {
|
|
||||||
t.Fatalf("%s: calcProps: %v", desc, err)
|
|
||||||
}
|
|
||||||
|
|
||||||
// Call property system.
|
|
||||||
var propstats []Propstat
|
|
||||||
switch op.op {
|
|
||||||
case "propname":
|
|
||||||
pnames, err := propnames(ctx, fs, ls, op.name)
|
|
||||||
if err != nil {
|
|
||||||
t.Errorf("%s: got error %v, want nil", desc, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
sort.Sort(byXMLName(pnames))
|
|
||||||
sort.Sort(byXMLName(op.wantPnames))
|
|
||||||
if !reflect.DeepEqual(pnames, op.wantPnames) {
|
|
||||||
t.Errorf("%s: pnames\ngot %q\nwant %q", desc, pnames, op.wantPnames)
|
|
||||||
}
|
|
||||||
continue
|
|
||||||
case "allprop":
|
|
||||||
propstats, err = allprop(ctx, fs, ls, op.name, op.pnames)
|
|
||||||
case "propfind":
|
|
||||||
propstats, err = props(ctx, fs, ls, op.name, op.pnames)
|
|
||||||
case "proppatch":
|
|
||||||
propstats, err = patch(ctx, fs, ls, op.name, op.patches)
|
|
||||||
default:
|
|
||||||
t.Fatalf("%s: %s not implemented", desc, op.op)
|
|
||||||
}
|
|
||||||
if err != nil {
|
|
||||||
t.Errorf("%s: got error %v, want nil", desc, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
// Compare return values from allprop, propfind or proppatch.
|
|
||||||
for _, pst := range propstats {
|
|
||||||
sort.Sort(byPropname(pst.Props))
|
|
||||||
}
|
|
||||||
for _, pst := range op.wantPropstats {
|
|
||||||
sort.Sort(byPropname(pst.Props))
|
|
||||||
}
|
|
||||||
sort.Sort(byStatus(propstats))
|
|
||||||
sort.Sort(byStatus(op.wantPropstats))
|
|
||||||
if !reflect.DeepEqual(propstats, op.wantPropstats) {
|
|
||||||
t.Errorf("%s: propstat\ngot %q\nwant %q", desc, propstats, op.wantPropstats)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func cmpXMLName(a, b xml.Name) bool {
|
|
||||||
if a.Space != b.Space {
|
|
||||||
return a.Space < b.Space
|
|
||||||
}
|
|
||||||
return a.Local < b.Local
|
|
||||||
}
|
|
||||||
|
|
||||||
type byXMLName []xml.Name
|
|
||||||
|
|
||||||
func (b byXMLName) Len() int { return len(b) }
|
|
||||||
func (b byXMLName) Swap(i, j int) { b[i], b[j] = b[j], b[i] }
|
|
||||||
func (b byXMLName) Less(i, j int) bool { return cmpXMLName(b[i], b[j]) }
|
|
||||||
|
|
||||||
type byPropname []Property
|
|
||||||
|
|
||||||
func (b byPropname) Len() int { return len(b) }
|
|
||||||
func (b byPropname) Swap(i, j int) { b[i], b[j] = b[j], b[i] }
|
|
||||||
func (b byPropname) Less(i, j int) bool { return cmpXMLName(b[i].XMLName, b[j].XMLName) }
|
|
||||||
|
|
||||||
type byStatus []Propstat
|
|
||||||
|
|
||||||
func (b byStatus) Len() int { return len(b) }
|
|
||||||
func (b byStatus) Swap(i, j int) { b[i], b[j] = b[j], b[i] }
|
|
||||||
func (b byStatus) Less(i, j int) bool { return b[i].Status < b[j].Status }
|
|
||||||
|
|
||||||
type noDeadPropsFS struct {
|
|
||||||
FileSystem
|
|
||||||
}
|
|
||||||
|
|
||||||
func (fs noDeadPropsFS) OpenFile(ctx context.Context, name string, flag int, perm os.FileMode) (File, error) {
|
|
||||||
f, err := fs.FileSystem.OpenFile(ctx, name, flag, perm)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
return noDeadPropsFile{f}, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
// noDeadPropsFile wraps a File but strips any optional DeadPropsHolder methods
|
|
||||||
// provided by the underlying File implementation.
|
|
||||||
type noDeadPropsFile struct {
|
|
||||||
f File
|
|
||||||
}
|
|
||||||
|
|
||||||
func (f noDeadPropsFile) Close() error { return f.f.Close() }
|
|
||||||
func (f noDeadPropsFile) Read(p []byte) (int, error) { return f.f.Read(p) }
|
|
||||||
func (f noDeadPropsFile) Readdir(count int) ([]os.FileInfo, error) { return f.f.Readdir(count) }
|
|
||||||
func (f noDeadPropsFile) Seek(off int64, whence int) (int64, error) { return f.f.Seek(off, whence) }
|
|
||||||
func (f noDeadPropsFile) Stat() (os.FileInfo, error) { return f.f.Stat() }
|
|
||||||
func (f noDeadPropsFile) Write(p []byte) (int, error) { return f.f.Write(p) }
|
|
||||||
|
|
||||||
type overrideContentType struct {
|
|
||||||
os.FileInfo
|
|
||||||
contentType string
|
|
||||||
err error
|
|
||||||
}
|
|
||||||
|
|
||||||
func (o *overrideContentType) ContentType(ctx context.Context) (string, error) {
|
|
||||||
return o.contentType, o.err
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestFindContentTypeOverride(t *testing.T) {
|
|
||||||
fs, err := buildTestFS([]string{"touch /file"})
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("cannot create test filesystem: %v", err)
|
|
||||||
}
|
|
||||||
ctx := context.Background()
|
|
||||||
fi, err := fs.Stat(ctx, "/file")
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("cannot Stat /file: %v", err)
|
|
||||||
}
|
|
||||||
|
|
||||||
// Check non overridden case
|
|
||||||
originalContentType, err := findContentType(ctx, fs, nil, "/file", fi)
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("findContentType /file failed: %v", err)
|
|
||||||
}
|
|
||||||
if originalContentType != "text/plain; charset=utf-8" {
|
|
||||||
t.Fatalf("ContentType wrong want %q got %q", "text/plain; charset=utf-8", originalContentType)
|
|
||||||
}
|
|
||||||
|
|
||||||
// Now try overriding the ContentType
|
|
||||||
o := &overrideContentType{fi, "OverriddenContentType", nil}
|
|
||||||
ContentType, err := findContentType(ctx, fs, nil, "/file", o)
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("findContentType /file failed: %v", err)
|
|
||||||
}
|
|
||||||
if ContentType != o.contentType {
|
|
||||||
t.Fatalf("ContentType wrong want %q got %q", o.contentType, ContentType)
|
|
||||||
}
|
|
||||||
|
|
||||||
// Now return ErrNotImplemented and check we get the original content type
|
|
||||||
o = &overrideContentType{fi, "OverriddenContentType", ErrNotImplemented}
|
|
||||||
ContentType, err = findContentType(ctx, fs, nil, "/file", o)
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("findContentType /file failed: %v", err)
|
|
||||||
}
|
|
||||||
if ContentType != originalContentType {
|
|
||||||
t.Fatalf("ContentType wrong want %q got %q", originalContentType, ContentType)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
type overrideETag struct {
|
|
||||||
os.FileInfo
|
|
||||||
eTag string
|
|
||||||
err error
|
|
||||||
}
|
|
||||||
|
|
||||||
func (o *overrideETag) ETag(ctx context.Context) (string, error) {
|
|
||||||
return o.eTag, o.err
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestFindETagOverride(t *testing.T) {
|
|
||||||
fs, err := buildTestFS([]string{"touch /file"})
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("cannot create test filesystem: %v", err)
|
|
||||||
}
|
|
||||||
ctx := context.Background()
|
|
||||||
fi, err := fs.Stat(ctx, "/file")
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("cannot Stat /file: %v", err)
|
|
||||||
}
|
|
||||||
|
|
||||||
// Check non overridden case
|
|
||||||
originalETag, err := findETag(ctx, fs, nil, "/file", fi)
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("findETag /file failed: %v", err)
|
|
||||||
}
|
|
||||||
matchETag := regexp.MustCompile(`^"-?[0-9a-f]{6,}"$`)
|
|
||||||
if !matchETag.MatchString(originalETag) {
|
|
||||||
t.Fatalf("ETag wrong, wanted something matching %v got %q", matchETag, originalETag)
|
|
||||||
}
|
|
||||||
|
|
||||||
// Now try overriding the ETag
|
|
||||||
o := &overrideETag{fi, `"OverriddenETag"`, nil}
|
|
||||||
ETag, err := findETag(ctx, fs, nil, "/file", o)
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("findETag /file failed: %v", err)
|
|
||||||
}
|
|
||||||
if ETag != o.eTag {
|
|
||||||
t.Fatalf("ETag wrong want %q got %q", o.eTag, ETag)
|
|
||||||
}
|
|
||||||
|
|
||||||
// Now return ErrNotImplemented and check we get the original Etag
|
|
||||||
o = &overrideETag{fi, `"OverriddenETag"`, ErrNotImplemented}
|
|
||||||
ETag, err = findETag(ctx, fs, nil, "/file", o)
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("findETag /file failed: %v", err)
|
|
||||||
}
|
|
||||||
if ETag != originalETag {
|
|
||||||
t.Fatalf("ETag wrong want %q got %q", originalETag, ETag)
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,349 +0,0 @@
|
|||||||
// Copyright 2015 The Go Authors. All rights reserved.
|
|
||||||
// Use of this source code is governed by a BSD-style
|
|
||||||
// license that can be found in the LICENSE file.
|
|
||||||
|
|
||||||
package webdav
|
|
||||||
|
|
||||||
import (
|
|
||||||
"context"
|
|
||||||
"errors"
|
|
||||||
"fmt"
|
|
||||||
"io"
|
|
||||||
"io/ioutil"
|
|
||||||
"net/http"
|
|
||||||
"net/http/httptest"
|
|
||||||
"net/url"
|
|
||||||
"os"
|
|
||||||
"reflect"
|
|
||||||
"regexp"
|
|
||||||
"sort"
|
|
||||||
"strings"
|
|
||||||
"testing"
|
|
||||||
)
|
|
||||||
|
|
||||||
// TODO: add tests to check XML responses with the expected prefix path
|
|
||||||
func TestPrefix(t *testing.T) {
|
|
||||||
const dst, blah = "Destination", "blah blah blah"
|
|
||||||
|
|
||||||
// createLockBody comes from the example in Section 9.10.7.
|
|
||||||
const createLockBody = `<?xml version="1.0" encoding="utf-8" ?>
|
|
||||||
<D:lockinfo xmlns:D='DAV:'>
|
|
||||||
<D:lockscope><D:exclusive/></D:lockscope>
|
|
||||||
<D:locktype><D:write/></D:locktype>
|
|
||||||
<D:owner>
|
|
||||||
<D:href>http://example.org/~ejw/contact.html</D:href>
|
|
||||||
</D:owner>
|
|
||||||
</D:lockinfo>
|
|
||||||
`
|
|
||||||
|
|
||||||
do := func(method, urlStr string, body string, wantStatusCode int, headers ...string) (http.Header, error) {
|
|
||||||
var bodyReader io.Reader
|
|
||||||
if body != "" {
|
|
||||||
bodyReader = strings.NewReader(body)
|
|
||||||
}
|
|
||||||
req, err := http.NewRequest(method, urlStr, bodyReader)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
for len(headers) >= 2 {
|
|
||||||
req.Header.Add(headers[0], headers[1])
|
|
||||||
headers = headers[2:]
|
|
||||||
}
|
|
||||||
res, err := http.DefaultTransport.RoundTrip(req)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
defer res.Body.Close()
|
|
||||||
if res.StatusCode != wantStatusCode {
|
|
||||||
return nil, fmt.Errorf("got status code %d, want %d", res.StatusCode, wantStatusCode)
|
|
||||||
}
|
|
||||||
return res.Header, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
prefixes := []string{
|
|
||||||
"/",
|
|
||||||
"/a/",
|
|
||||||
"/a/b/",
|
|
||||||
"/a/b/c/",
|
|
||||||
}
|
|
||||||
ctx := context.Background()
|
|
||||||
for _, prefix := range prefixes {
|
|
||||||
fs := NewMemFS()
|
|
||||||
h := &Handler{
|
|
||||||
FileSystem: fs,
|
|
||||||
LockSystem: NewMemLS(),
|
|
||||||
}
|
|
||||||
mux := http.NewServeMux()
|
|
||||||
if prefix != "/" {
|
|
||||||
h.Prefix = prefix
|
|
||||||
}
|
|
||||||
mux.Handle(prefix, h)
|
|
||||||
srv := httptest.NewServer(mux)
|
|
||||||
defer srv.Close()
|
|
||||||
|
|
||||||
// The script is:
|
|
||||||
// MKCOL /a
|
|
||||||
// MKCOL /a/b
|
|
||||||
// PUT /a/b/c
|
|
||||||
// COPY /a/b/c /a/b/d
|
|
||||||
// MKCOL /a/b/e
|
|
||||||
// MOVE /a/b/d /a/b/e/f
|
|
||||||
// LOCK /a/b/e/g
|
|
||||||
// PUT /a/b/e/g
|
|
||||||
// which should yield the (possibly stripped) filenames /a/b/c,
|
|
||||||
// /a/b/e/f and /a/b/e/g, plus their parent directories.
|
|
||||||
|
|
||||||
wantA := map[string]int{
|
|
||||||
"/": http.StatusCreated,
|
|
||||||
"/a/": http.StatusMovedPermanently,
|
|
||||||
"/a/b/": http.StatusNotFound,
|
|
||||||
"/a/b/c/": http.StatusNotFound,
|
|
||||||
}[prefix]
|
|
||||||
if _, err := do("MKCOL", srv.URL+"/a", "", wantA); err != nil {
|
|
||||||
t.Errorf("prefix=%-9q MKCOL /a: %v", prefix, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
|
|
||||||
wantB := map[string]int{
|
|
||||||
"/": http.StatusCreated,
|
|
||||||
"/a/": http.StatusCreated,
|
|
||||||
"/a/b/": http.StatusMovedPermanently,
|
|
||||||
"/a/b/c/": http.StatusNotFound,
|
|
||||||
}[prefix]
|
|
||||||
if _, err := do("MKCOL", srv.URL+"/a/b", "", wantB); err != nil {
|
|
||||||
t.Errorf("prefix=%-9q MKCOL /a/b: %v", prefix, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
|
|
||||||
wantC := map[string]int{
|
|
||||||
"/": http.StatusCreated,
|
|
||||||
"/a/": http.StatusCreated,
|
|
||||||
"/a/b/": http.StatusCreated,
|
|
||||||
"/a/b/c/": http.StatusMovedPermanently,
|
|
||||||
}[prefix]
|
|
||||||
if _, err := do("PUT", srv.URL+"/a/b/c", blah, wantC); err != nil {
|
|
||||||
t.Errorf("prefix=%-9q PUT /a/b/c: %v", prefix, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
|
|
||||||
wantD := map[string]int{
|
|
||||||
"/": http.StatusCreated,
|
|
||||||
"/a/": http.StatusCreated,
|
|
||||||
"/a/b/": http.StatusCreated,
|
|
||||||
"/a/b/c/": http.StatusMovedPermanently,
|
|
||||||
}[prefix]
|
|
||||||
if _, err := do("COPY", srv.URL+"/a/b/c", "", wantD, dst, srv.URL+"/a/b/d"); err != nil {
|
|
||||||
t.Errorf("prefix=%-9q COPY /a/b/c /a/b/d: %v", prefix, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
|
|
||||||
wantE := map[string]int{
|
|
||||||
"/": http.StatusCreated,
|
|
||||||
"/a/": http.StatusCreated,
|
|
||||||
"/a/b/": http.StatusCreated,
|
|
||||||
"/a/b/c/": http.StatusNotFound,
|
|
||||||
}[prefix]
|
|
||||||
if _, err := do("MKCOL", srv.URL+"/a/b/e", "", wantE); err != nil {
|
|
||||||
t.Errorf("prefix=%-9q MKCOL /a/b/e: %v", prefix, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
|
|
||||||
wantF := map[string]int{
|
|
||||||
"/": http.StatusCreated,
|
|
||||||
"/a/": http.StatusCreated,
|
|
||||||
"/a/b/": http.StatusCreated,
|
|
||||||
"/a/b/c/": http.StatusNotFound,
|
|
||||||
}[prefix]
|
|
||||||
if _, err := do("MOVE", srv.URL+"/a/b/d", "", wantF, dst, srv.URL+"/a/b/e/f"); err != nil {
|
|
||||||
t.Errorf("prefix=%-9q MOVE /a/b/d /a/b/e/f: %v", prefix, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
|
|
||||||
var lockToken string
|
|
||||||
wantG := map[string]int{
|
|
||||||
"/": http.StatusCreated,
|
|
||||||
"/a/": http.StatusCreated,
|
|
||||||
"/a/b/": http.StatusCreated,
|
|
||||||
"/a/b/c/": http.StatusNotFound,
|
|
||||||
}[prefix]
|
|
||||||
if h, err := do("LOCK", srv.URL+"/a/b/e/g", createLockBody, wantG); err != nil {
|
|
||||||
t.Errorf("prefix=%-9q LOCK /a/b/e/g: %v", prefix, err)
|
|
||||||
continue
|
|
||||||
} else {
|
|
||||||
lockToken = h.Get("Lock-Token")
|
|
||||||
}
|
|
||||||
|
|
||||||
ifHeader := fmt.Sprintf("<%s/a/b/e/g> (%s)", srv.URL, lockToken)
|
|
||||||
wantH := map[string]int{
|
|
||||||
"/": http.StatusCreated,
|
|
||||||
"/a/": http.StatusCreated,
|
|
||||||
"/a/b/": http.StatusCreated,
|
|
||||||
"/a/b/c/": http.StatusNotFound,
|
|
||||||
}[prefix]
|
|
||||||
if _, err := do("PUT", srv.URL+"/a/b/e/g", blah, wantH, "If", ifHeader); err != nil {
|
|
||||||
t.Errorf("prefix=%-9q PUT /a/b/e/g: %v", prefix, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
|
|
||||||
got, err := find(ctx, nil, fs, "/")
|
|
||||||
if err != nil {
|
|
||||||
t.Errorf("prefix=%-9q find: %v", prefix, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
sort.Strings(got)
|
|
||||||
want := map[string][]string{
|
|
||||||
"/": {"/", "/a", "/a/b", "/a/b/c", "/a/b/e", "/a/b/e/f", "/a/b/e/g"},
|
|
||||||
"/a/": {"/", "/b", "/b/c", "/b/e", "/b/e/f", "/b/e/g"},
|
|
||||||
"/a/b/": {"/", "/c", "/e", "/e/f", "/e/g"},
|
|
||||||
"/a/b/c/": {"/"},
|
|
||||||
}[prefix]
|
|
||||||
if !reflect.DeepEqual(got, want) {
|
|
||||||
t.Errorf("prefix=%-9q find:\ngot %v\nwant %v", prefix, got, want)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestEscapeXML(t *testing.T) {
|
|
||||||
// These test cases aren't exhaustive, and there is more than one way to
|
|
||||||
// escape e.g. a quot (as """ or """) or an apos. We presume that
|
|
||||||
// the encoding/xml package tests xml.EscapeText more thoroughly. This test
|
|
||||||
// here is just a sanity check for this package's escapeXML function, and
|
|
||||||
// its attempt to provide a fast path (and avoid a bytes.Buffer allocation)
|
|
||||||
// when escaping filenames is obviously a no-op.
|
|
||||||
testCases := map[string]string{
|
|
||||||
"": "",
|
|
||||||
" ": " ",
|
|
||||||
"&": "&",
|
|
||||||
"*": "*",
|
|
||||||
"+": "+",
|
|
||||||
",": ",",
|
|
||||||
"-": "-",
|
|
||||||
".": ".",
|
|
||||||
"/": "/",
|
|
||||||
"0": "0",
|
|
||||||
"9": "9",
|
|
||||||
":": ":",
|
|
||||||
"<": "<",
|
|
||||||
">": ">",
|
|
||||||
"A": "A",
|
|
||||||
"_": "_",
|
|
||||||
"a": "a",
|
|
||||||
"~": "~",
|
|
||||||
"\u0201": "\u0201",
|
|
||||||
"&": "&amp;",
|
|
||||||
"foo&<b/ar>baz": "foo&<b/ar>baz",
|
|
||||||
}
|
|
||||||
|
|
||||||
for in, want := range testCases {
|
|
||||||
if got := escapeXML(in); got != want {
|
|
||||||
t.Errorf("in=%q: got %q, want %q", in, got, want)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestFilenameEscape(t *testing.T) {
|
|
||||||
hrefRe := regexp.MustCompile(`<D:href>([^<]*)</D:href>`)
|
|
||||||
displayNameRe := regexp.MustCompile(`<D:displayname>([^<]*)</D:displayname>`)
|
|
||||||
do := func(method, urlStr string) (string, string, error) {
|
|
||||||
req, err := http.NewRequest(method, urlStr, nil)
|
|
||||||
if err != nil {
|
|
||||||
return "", "", err
|
|
||||||
}
|
|
||||||
res, err := http.DefaultClient.Do(req)
|
|
||||||
if err != nil {
|
|
||||||
return "", "", err
|
|
||||||
}
|
|
||||||
defer res.Body.Close()
|
|
||||||
|
|
||||||
b, err := ioutil.ReadAll(res.Body)
|
|
||||||
if err != nil {
|
|
||||||
return "", "", err
|
|
||||||
}
|
|
||||||
hrefMatch := hrefRe.FindStringSubmatch(string(b))
|
|
||||||
if len(hrefMatch) != 2 {
|
|
||||||
return "", "", errors.New("D:href not found")
|
|
||||||
}
|
|
||||||
displayNameMatch := displayNameRe.FindStringSubmatch(string(b))
|
|
||||||
if len(displayNameMatch) != 2 {
|
|
||||||
return "", "", errors.New("D:displayname not found")
|
|
||||||
}
|
|
||||||
|
|
||||||
return hrefMatch[1], displayNameMatch[1], nil
|
|
||||||
}
|
|
||||||
|
|
||||||
testCases := []struct {
|
|
||||||
name, wantHref, wantDisplayName string
|
|
||||||
}{{
|
|
||||||
name: `/foo%bar`,
|
|
||||||
wantHref: `/foo%25bar`,
|
|
||||||
wantDisplayName: `foo%bar`,
|
|
||||||
}, {
|
|
||||||
name: `/こんにちわ世界`,
|
|
||||||
wantHref: `/%E3%81%93%E3%82%93%E3%81%AB%E3%81%A1%E3%82%8F%E4%B8%96%E7%95%8C`,
|
|
||||||
wantDisplayName: `こんにちわ世界`,
|
|
||||||
}, {
|
|
||||||
name: `/Program Files/`,
|
|
||||||
wantHref: `/Program%20Files/`,
|
|
||||||
wantDisplayName: `Program Files`,
|
|
||||||
}, {
|
|
||||||
name: `/go+lang`,
|
|
||||||
wantHref: `/go+lang`,
|
|
||||||
wantDisplayName: `go+lang`,
|
|
||||||
}, {
|
|
||||||
name: `/go&lang`,
|
|
||||||
wantHref: `/go&lang`,
|
|
||||||
wantDisplayName: `go&lang`,
|
|
||||||
}, {
|
|
||||||
name: `/go<lang`,
|
|
||||||
wantHref: `/go%3Clang`,
|
|
||||||
wantDisplayName: `go<lang`,
|
|
||||||
}, {
|
|
||||||
name: `/`,
|
|
||||||
wantHref: `/`,
|
|
||||||
wantDisplayName: ``,
|
|
||||||
}}
|
|
||||||
ctx := context.Background()
|
|
||||||
fs := NewMemFS()
|
|
||||||
for _, tc := range testCases {
|
|
||||||
if tc.name != "/" {
|
|
||||||
if strings.HasSuffix(tc.name, "/") {
|
|
||||||
if err := fs.Mkdir(ctx, tc.name, 0755); err != nil {
|
|
||||||
t.Fatalf("name=%q: Mkdir: %v", tc.name, err)
|
|
||||||
}
|
|
||||||
} else {
|
|
||||||
f, err := fs.OpenFile(ctx, tc.name, os.O_CREATE, 0644)
|
|
||||||
if err != nil {
|
|
||||||
t.Fatalf("name=%q: OpenFile: %v", tc.name, err)
|
|
||||||
}
|
|
||||||
f.Close()
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
srv := httptest.NewServer(&Handler{
|
|
||||||
FileSystem: fs,
|
|
||||||
LockSystem: NewMemLS(),
|
|
||||||
})
|
|
||||||
defer srv.Close()
|
|
||||||
|
|
||||||
u, err := url.Parse(srv.URL)
|
|
||||||
if err != nil {
|
|
||||||
t.Fatal(err)
|
|
||||||
}
|
|
||||||
|
|
||||||
for _, tc := range testCases {
|
|
||||||
u.Path = tc.name
|
|
||||||
gotHref, gotDisplayName, err := do("PROPFIND", u.String())
|
|
||||||
if err != nil {
|
|
||||||
t.Errorf("name=%q: PROPFIND: %v", tc.name, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
if gotHref != tc.wantHref {
|
|
||||||
t.Errorf("name=%q: got href %q, want %q", tc.name, gotHref, tc.wantHref)
|
|
||||||
}
|
|
||||||
if gotDisplayName != tc.wantDisplayName {
|
|
||||||
t.Errorf("name=%q: got dispayname %q, want %q", tc.name, gotDisplayName, tc.wantDisplayName)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
@ -1,906 +0,0 @@
|
|||||||
// Copyright 2014 The Go Authors. All rights reserved.
|
|
||||||
// Use of this source code is governed by a BSD-style
|
|
||||||
// license that can be found in the LICENSE file.
|
|
||||||
|
|
||||||
package webdav
|
|
||||||
|
|
||||||
import (
|
|
||||||
"bytes"
|
|
||||||
"encoding/xml"
|
|
||||||
"fmt"
|
|
||||||
"io"
|
|
||||||
"net/http"
|
|
||||||
"net/http/httptest"
|
|
||||||
"reflect"
|
|
||||||
"sort"
|
|
||||||
"strings"
|
|
||||||
"testing"
|
|
||||||
|
|
||||||
ixml "github.com/HFO4/cloudreve/pkg/webdav/internal/xml"
|
|
||||||
)
|
|
||||||
|
|
||||||
func TestReadLockInfo(t *testing.T) {
|
|
||||||
// The "section x.y.z" test cases come from section x.y.z of the spec at
|
|
||||||
// http://www.webdav.org/specs/rfc4918.html
|
|
||||||
testCases := []struct {
|
|
||||||
desc string
|
|
||||||
input string
|
|
||||||
wantLI lockInfo
|
|
||||||
wantStatus int
|
|
||||||
}{{
|
|
||||||
"bad: junk",
|
|
||||||
"xxx",
|
|
||||||
lockInfo{},
|
|
||||||
http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
"bad: invalid owner XML",
|
|
||||||
"" +
|
|
||||||
"<D:lockinfo xmlns:D='DAV:'>\n" +
|
|
||||||
" <D:lockscope><D:exclusive/></D:lockscope>\n" +
|
|
||||||
" <D:locktype><D:write/></D:locktype>\n" +
|
|
||||||
" <D:owner>\n" +
|
|
||||||
" <D:href> no end tag \n" +
|
|
||||||
" </D:owner>\n" +
|
|
||||||
"</D:lockinfo>",
|
|
||||||
lockInfo{},
|
|
||||||
http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
"bad: invalid UTF-8",
|
|
||||||
"" +
|
|
||||||
"<D:lockinfo xmlns:D='DAV:'>\n" +
|
|
||||||
" <D:lockscope><D:exclusive/></D:lockscope>\n" +
|
|
||||||
" <D:locktype><D:write/></D:locktype>\n" +
|
|
||||||
" <D:owner>\n" +
|
|
||||||
" <D:href> \xff </D:href>\n" +
|
|
||||||
" </D:owner>\n" +
|
|
||||||
"</D:lockinfo>",
|
|
||||||
lockInfo{},
|
|
||||||
http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
"bad: unfinished XML #1",
|
|
||||||
"" +
|
|
||||||
"<D:lockinfo xmlns:D='DAV:'>\n" +
|
|
||||||
" <D:lockscope><D:exclusive/></D:lockscope>\n" +
|
|
||||||
" <D:locktype><D:write/></D:locktype>\n",
|
|
||||||
lockInfo{},
|
|
||||||
http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
"bad: unfinished XML #2",
|
|
||||||
"" +
|
|
||||||
"<D:lockinfo xmlns:D='DAV:'>\n" +
|
|
||||||
" <D:lockscope><D:exclusive/></D:lockscope>\n" +
|
|
||||||
" <D:locktype><D:write/></D:locktype>\n" +
|
|
||||||
" <D:owner>\n",
|
|
||||||
lockInfo{},
|
|
||||||
http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
"good: empty",
|
|
||||||
"",
|
|
||||||
lockInfo{},
|
|
||||||
0,
|
|
||||||
}, {
|
|
||||||
"good: plain-text owner",
|
|
||||||
"" +
|
|
||||||
"<D:lockinfo xmlns:D='DAV:'>\n" +
|
|
||||||
" <D:lockscope><D:exclusive/></D:lockscope>\n" +
|
|
||||||
" <D:locktype><D:write/></D:locktype>\n" +
|
|
||||||
" <D:owner>gopher</D:owner>\n" +
|
|
||||||
"</D:lockinfo>",
|
|
||||||
lockInfo{
|
|
||||||
XMLName: ixml.Name{Space: "DAV:", Local: "lockinfo"},
|
|
||||||
Exclusive: new(struct{}),
|
|
||||||
Write: new(struct{}),
|
|
||||||
Owner: owner{
|
|
||||||
InnerXML: "gopher",
|
|
||||||
},
|
|
||||||
},
|
|
||||||
0,
|
|
||||||
}, {
|
|
||||||
"section 9.10.7",
|
|
||||||
"" +
|
|
||||||
"<D:lockinfo xmlns:D='DAV:'>\n" +
|
|
||||||
" <D:lockscope><D:exclusive/></D:lockscope>\n" +
|
|
||||||
" <D:locktype><D:write/></D:locktype>\n" +
|
|
||||||
" <D:owner>\n" +
|
|
||||||
" <D:href>http://example.org/~ejw/contact.html</D:href>\n" +
|
|
||||||
" </D:owner>\n" +
|
|
||||||
"</D:lockinfo>",
|
|
||||||
lockInfo{
|
|
||||||
XMLName: ixml.Name{Space: "DAV:", Local: "lockinfo"},
|
|
||||||
Exclusive: new(struct{}),
|
|
||||||
Write: new(struct{}),
|
|
||||||
Owner: owner{
|
|
||||||
InnerXML: "\n <D:href>http://example.org/~ejw/contact.html</D:href>\n ",
|
|
||||||
},
|
|
||||||
},
|
|
||||||
0,
|
|
||||||
}}
|
|
||||||
|
|
||||||
for _, tc := range testCases {
|
|
||||||
li, status, err := readLockInfo(strings.NewReader(tc.input))
|
|
||||||
if tc.wantStatus != 0 {
|
|
||||||
if err == nil {
|
|
||||||
t.Errorf("%s: got nil error, want non-nil", tc.desc)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
} else if err != nil {
|
|
||||||
t.Errorf("%s: %v", tc.desc, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
if !reflect.DeepEqual(li, tc.wantLI) || status != tc.wantStatus {
|
|
||||||
t.Errorf("%s:\ngot lockInfo=%v, status=%v\nwant lockInfo=%v, status=%v",
|
|
||||||
tc.desc, li, status, tc.wantLI, tc.wantStatus)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestReadPropfind(t *testing.T) {
|
|
||||||
testCases := []struct {
|
|
||||||
desc string
|
|
||||||
input string
|
|
||||||
wantPF propfind
|
|
||||||
wantStatus int
|
|
||||||
}{{
|
|
||||||
desc: "propfind: propname",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:propname/>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantPF: propfind{
|
|
||||||
XMLName: ixml.Name{Space: "DAV:", Local: "propfind"},
|
|
||||||
Propname: new(struct{}),
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
desc: "propfind: empty body means allprop",
|
|
||||||
input: "",
|
|
||||||
wantPF: propfind{
|
|
||||||
Allprop: new(struct{}),
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
desc: "propfind: allprop",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:allprop/>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantPF: propfind{
|
|
||||||
XMLName: ixml.Name{Space: "DAV:", Local: "propfind"},
|
|
||||||
Allprop: new(struct{}),
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
desc: "propfind: allprop followed by include",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:allprop/>\n" +
|
|
||||||
" <A:include><A:displayname/></A:include>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantPF: propfind{
|
|
||||||
XMLName: ixml.Name{Space: "DAV:", Local: "propfind"},
|
|
||||||
Allprop: new(struct{}),
|
|
||||||
Include: propfindProps{xml.Name{Space: "DAV:", Local: "displayname"}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
desc: "propfind: include followed by allprop",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:include><A:displayname/></A:include>\n" +
|
|
||||||
" <A:allprop/>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantPF: propfind{
|
|
||||||
XMLName: ixml.Name{Space: "DAV:", Local: "propfind"},
|
|
||||||
Allprop: new(struct{}),
|
|
||||||
Include: propfindProps{xml.Name{Space: "DAV:", Local: "displayname"}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
desc: "propfind: propfind",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:prop><A:displayname/></A:prop>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantPF: propfind{
|
|
||||||
XMLName: ixml.Name{Space: "DAV:", Local: "propfind"},
|
|
||||||
Prop: propfindProps{xml.Name{Space: "DAV:", Local: "displayname"}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
desc: "propfind: prop with ignored comments",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:prop>\n" +
|
|
||||||
" <!-- ignore -->\n" +
|
|
||||||
" <A:displayname><!-- ignore --></A:displayname>\n" +
|
|
||||||
" </A:prop>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantPF: propfind{
|
|
||||||
XMLName: ixml.Name{Space: "DAV:", Local: "propfind"},
|
|
||||||
Prop: propfindProps{xml.Name{Space: "DAV:", Local: "displayname"}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
desc: "propfind: propfind with ignored whitespace",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:prop> <A:displayname/></A:prop>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantPF: propfind{
|
|
||||||
XMLName: ixml.Name{Space: "DAV:", Local: "propfind"},
|
|
||||||
Prop: propfindProps{xml.Name{Space: "DAV:", Local: "displayname"}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
desc: "propfind: propfind with ignored mixed-content",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:prop>foo<A:displayname/>bar</A:prop>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantPF: propfind{
|
|
||||||
XMLName: ixml.Name{Space: "DAV:", Local: "propfind"},
|
|
||||||
Prop: propfindProps{xml.Name{Space: "DAV:", Local: "displayname"}},
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
desc: "propfind: propname with ignored element (section A.4)",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:propname/>\n" +
|
|
||||||
" <E:leave-out xmlns:E='E:'>*boss*</E:leave-out>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantPF: propfind{
|
|
||||||
XMLName: ixml.Name{Space: "DAV:", Local: "propfind"},
|
|
||||||
Propname: new(struct{}),
|
|
||||||
},
|
|
||||||
}, {
|
|
||||||
desc: "propfind: bad: junk",
|
|
||||||
input: "xxx",
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
desc: "propfind: bad: propname and allprop (section A.3)",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:propname/>" +
|
|
||||||
" <A:allprop/>" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
desc: "propfind: bad: propname and prop",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:prop><A:displayname/></A:prop>\n" +
|
|
||||||
" <A:propname/>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
desc: "propfind: bad: allprop and prop",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:allprop/>\n" +
|
|
||||||
" <A:prop><A:foo/><A:/prop>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
desc: "propfind: bad: empty propfind with ignored element (section A.4)",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <E:expired-props/>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
desc: "propfind: bad: empty prop",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:prop/>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
desc: "propfind: bad: prop with just chardata",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:prop>foo</A:prop>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
desc: "bad: interrupted prop",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:prop><A:foo></A:prop>\n",
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
desc: "bad: malformed end element prop",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:prop><A:foo/></A:bar></A:prop>\n",
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
desc: "propfind: bad: property with chardata value",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:prop><A:foo>bar</A:foo></A:prop>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
desc: "propfind: bad: property with whitespace value",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:prop><A:foo> </A:foo></A:prop>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
desc: "propfind: bad: include without allprop",
|
|
||||||
input: "" +
|
|
||||||
"<A:propfind xmlns:A='DAV:'>\n" +
|
|
||||||
" <A:include><A:foo/></A:include>\n" +
|
|
||||||
"</A:propfind>",
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}}
|
|
||||||
|
|
||||||
for _, tc := range testCases {
|
|
||||||
pf, status, err := readPropfind(strings.NewReader(tc.input))
|
|
||||||
if tc.wantStatus != 0 {
|
|
||||||
if err == nil {
|
|
||||||
t.Errorf("%s: got nil error, want non-nil", tc.desc)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
} else if err != nil {
|
|
||||||
t.Errorf("%s: %v", tc.desc, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
if !reflect.DeepEqual(pf, tc.wantPF) || status != tc.wantStatus {
|
|
||||||
t.Errorf("%s:\ngot propfind=%v, status=%v\nwant propfind=%v, status=%v",
|
|
||||||
tc.desc, pf, status, tc.wantPF, tc.wantStatus)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestMultistatusWriter(t *testing.T) {
|
|
||||||
///The "section x.y.z" test cases come from section x.y.z of the spec at
|
|
||||||
// http://www.webdav.org/specs/rfc4918.html
|
|
||||||
testCases := []struct {
|
|
||||||
desc string
|
|
||||||
responses []response
|
|
||||||
respdesc string
|
|
||||||
writeHeader bool
|
|
||||||
wantXML string
|
|
||||||
wantCode int
|
|
||||||
wantErr error
|
|
||||||
}{{
|
|
||||||
desc: "section 9.2.2 (failed dependency)",
|
|
||||||
responses: []response{{
|
|
||||||
Href: []string{"http://example.com/foo"},
|
|
||||||
Propstat: []propstat{{
|
|
||||||
Prop: []Property{{
|
|
||||||
XMLName: xml.Name{
|
|
||||||
Space: "http://ns.example.com/",
|
|
||||||
Local: "Authors",
|
|
||||||
},
|
|
||||||
}},
|
|
||||||
Status: "HTTP/1.1 424 Failed Dependency",
|
|
||||||
}, {
|
|
||||||
Prop: []Property{{
|
|
||||||
XMLName: xml.Name{
|
|
||||||
Space: "http://ns.example.com/",
|
|
||||||
Local: "Copyright-Owner",
|
|
||||||
},
|
|
||||||
}},
|
|
||||||
Status: "HTTP/1.1 409 Conflict",
|
|
||||||
}},
|
|
||||||
ResponseDescription: "Copyright Owner cannot be deleted or altered.",
|
|
||||||
}},
|
|
||||||
wantXML: `` +
|
|
||||||
`<?xml version="1.0" encoding="UTF-8"?>` +
|
|
||||||
`<multistatus xmlns="DAV:">` +
|
|
||||||
` <response>` +
|
|
||||||
` <href>http://example.com/foo</href>` +
|
|
||||||
` <propstat>` +
|
|
||||||
` <prop>` +
|
|
||||||
` <Authors xmlns="http://ns.example.com/"></Authors>` +
|
|
||||||
` </prop>` +
|
|
||||||
` <status>HTTP/1.1 424 Failed Dependency</status>` +
|
|
||||||
` </propstat>` +
|
|
||||||
` <propstat xmlns="DAV:">` +
|
|
||||||
` <prop>` +
|
|
||||||
` <Copyright-Owner xmlns="http://ns.example.com/"></Copyright-Owner>` +
|
|
||||||
` </prop>` +
|
|
||||||
` <status>HTTP/1.1 409 Conflict</status>` +
|
|
||||||
` </propstat>` +
|
|
||||||
` <responsedescription>Copyright Owner cannot be deleted or altered.</responsedescription>` +
|
|
||||||
`</response>` +
|
|
||||||
`</multistatus>`,
|
|
||||||
wantCode: StatusMulti,
|
|
||||||
}, {
|
|
||||||
desc: "section 9.6.2 (lock-token-submitted)",
|
|
||||||
responses: []response{{
|
|
||||||
Href: []string{"http://example.com/foo"},
|
|
||||||
Status: "HTTP/1.1 423 Locked",
|
|
||||||
Error: &xmlError{
|
|
||||||
InnerXML: []byte(`<lock-token-submitted xmlns="DAV:"/>`),
|
|
||||||
},
|
|
||||||
}},
|
|
||||||
wantXML: `` +
|
|
||||||
`<?xml version="1.0" encoding="UTF-8"?>` +
|
|
||||||
`<multistatus xmlns="DAV:">` +
|
|
||||||
` <response>` +
|
|
||||||
` <href>http://example.com/foo</href>` +
|
|
||||||
` <status>HTTP/1.1 423 Locked</status>` +
|
|
||||||
` <error><lock-token-submitted xmlns="DAV:"/></error>` +
|
|
||||||
` </response>` +
|
|
||||||
`</multistatus>`,
|
|
||||||
wantCode: StatusMulti,
|
|
||||||
}, {
|
|
||||||
desc: "section 9.1.3",
|
|
||||||
responses: []response{{
|
|
||||||
Href: []string{"http://example.com/foo"},
|
|
||||||
Propstat: []propstat{{
|
|
||||||
Prop: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "http://ns.example.com/boxschema/", Local: "bigbox"},
|
|
||||||
InnerXML: []byte(`` +
|
|
||||||
`<BoxType xmlns="http://ns.example.com/boxschema/">` +
|
|
||||||
`Box type A` +
|
|
||||||
`</BoxType>`),
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "http://ns.example.com/boxschema/", Local: "author"},
|
|
||||||
InnerXML: []byte(`` +
|
|
||||||
`<Name xmlns="http://ns.example.com/boxschema/">` +
|
|
||||||
`J.J. Johnson` +
|
|
||||||
`</Name>`),
|
|
||||||
}},
|
|
||||||
Status: "HTTP/1.1 200 OK",
|
|
||||||
}, {
|
|
||||||
Prop: []Property{{
|
|
||||||
XMLName: xml.Name{Space: "http://ns.example.com/boxschema/", Local: "DingALing"},
|
|
||||||
}, {
|
|
||||||
XMLName: xml.Name{Space: "http://ns.example.com/boxschema/", Local: "Random"},
|
|
||||||
}},
|
|
||||||
Status: "HTTP/1.1 403 Forbidden",
|
|
||||||
ResponseDescription: "The user does not have access to the DingALing property.",
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
respdesc: "There has been an access violation error.",
|
|
||||||
wantXML: `` +
|
|
||||||
`<?xml version="1.0" encoding="UTF-8"?>` +
|
|
||||||
`<multistatus xmlns="DAV:" xmlns:B="http://ns.example.com/boxschema/">` +
|
|
||||||
` <response>` +
|
|
||||||
` <href>http://example.com/foo</href>` +
|
|
||||||
` <propstat>` +
|
|
||||||
` <prop>` +
|
|
||||||
` <B:bigbox><B:BoxType>Box type A</B:BoxType></B:bigbox>` +
|
|
||||||
` <B:author><B:Name>J.J. Johnson</B:Name></B:author>` +
|
|
||||||
` </prop>` +
|
|
||||||
` <status>HTTP/1.1 200 OK</status>` +
|
|
||||||
` </propstat>` +
|
|
||||||
` <propstat>` +
|
|
||||||
` <prop>` +
|
|
||||||
` <B:DingALing/>` +
|
|
||||||
` <B:Random/>` +
|
|
||||||
` </prop>` +
|
|
||||||
` <status>HTTP/1.1 403 Forbidden</status>` +
|
|
||||||
` <responsedescription>The user does not have access to the DingALing property.</responsedescription>` +
|
|
||||||
` </propstat>` +
|
|
||||||
` </response>` +
|
|
||||||
` <responsedescription>There has been an access violation error.</responsedescription>` +
|
|
||||||
`</multistatus>`,
|
|
||||||
wantCode: StatusMulti,
|
|
||||||
}, {
|
|
||||||
desc: "no response written",
|
|
||||||
// default of http.responseWriter
|
|
||||||
wantCode: http.StatusOK,
|
|
||||||
}, {
|
|
||||||
desc: "no response written (with description)",
|
|
||||||
respdesc: "too bad",
|
|
||||||
// default of http.responseWriter
|
|
||||||
wantCode: http.StatusOK,
|
|
||||||
}, {
|
|
||||||
desc: "empty multistatus with header",
|
|
||||||
writeHeader: true,
|
|
||||||
wantXML: `<multistatus xmlns="DAV:"></multistatus>`,
|
|
||||||
wantCode: StatusMulti,
|
|
||||||
}, {
|
|
||||||
desc: "bad: no href",
|
|
||||||
responses: []response{{
|
|
||||||
Propstat: []propstat{{
|
|
||||||
Prop: []Property{{
|
|
||||||
XMLName: xml.Name{
|
|
||||||
Space: "http://example.com/",
|
|
||||||
Local: "foo",
|
|
||||||
},
|
|
||||||
}},
|
|
||||||
Status: "HTTP/1.1 200 OK",
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
wantErr: errInvalidResponse,
|
|
||||||
// default of http.responseWriter
|
|
||||||
wantCode: http.StatusOK,
|
|
||||||
}, {
|
|
||||||
desc: "bad: multiple hrefs and no status",
|
|
||||||
responses: []response{{
|
|
||||||
Href: []string{"http://example.com/foo", "http://example.com/bar"},
|
|
||||||
}},
|
|
||||||
wantErr: errInvalidResponse,
|
|
||||||
// default of http.responseWriter
|
|
||||||
wantCode: http.StatusOK,
|
|
||||||
}, {
|
|
||||||
desc: "bad: one href and no propstat",
|
|
||||||
responses: []response{{
|
|
||||||
Href: []string{"http://example.com/foo"},
|
|
||||||
}},
|
|
||||||
wantErr: errInvalidResponse,
|
|
||||||
// default of http.responseWriter
|
|
||||||
wantCode: http.StatusOK,
|
|
||||||
}, {
|
|
||||||
desc: "bad: status with one href and propstat",
|
|
||||||
responses: []response{{
|
|
||||||
Href: []string{"http://example.com/foo"},
|
|
||||||
Propstat: []propstat{{
|
|
||||||
Prop: []Property{{
|
|
||||||
XMLName: xml.Name{
|
|
||||||
Space: "http://example.com/",
|
|
||||||
Local: "foo",
|
|
||||||
},
|
|
||||||
}},
|
|
||||||
Status: "HTTP/1.1 200 OK",
|
|
||||||
}},
|
|
||||||
Status: "HTTP/1.1 200 OK",
|
|
||||||
}},
|
|
||||||
wantErr: errInvalidResponse,
|
|
||||||
// default of http.responseWriter
|
|
||||||
wantCode: http.StatusOK,
|
|
||||||
}, {
|
|
||||||
desc: "bad: multiple hrefs and propstat",
|
|
||||||
responses: []response{{
|
|
||||||
Href: []string{
|
|
||||||
"http://example.com/foo",
|
|
||||||
"http://example.com/bar",
|
|
||||||
},
|
|
||||||
Propstat: []propstat{{
|
|
||||||
Prop: []Property{{
|
|
||||||
XMLName: xml.Name{
|
|
||||||
Space: "http://example.com/",
|
|
||||||
Local: "foo",
|
|
||||||
},
|
|
||||||
}},
|
|
||||||
Status: "HTTP/1.1 200 OK",
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
wantErr: errInvalidResponse,
|
|
||||||
// default of http.responseWriter
|
|
||||||
wantCode: http.StatusOK,
|
|
||||||
}}
|
|
||||||
|
|
||||||
n := xmlNormalizer{omitWhitespace: true}
|
|
||||||
loop:
|
|
||||||
for _, tc := range testCases {
|
|
||||||
rec := httptest.NewRecorder()
|
|
||||||
w := multistatusWriter{w: rec, responseDescription: tc.respdesc}
|
|
||||||
if tc.writeHeader {
|
|
||||||
if err := w.writeHeader(); err != nil {
|
|
||||||
t.Errorf("%s: got writeHeader error %v, want nil", tc.desc, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
}
|
|
||||||
for _, r := range tc.responses {
|
|
||||||
if err := w.write(&r); err != nil {
|
|
||||||
if err != tc.wantErr {
|
|
||||||
t.Errorf("%s: got write error %v, want %v",
|
|
||||||
tc.desc, err, tc.wantErr)
|
|
||||||
}
|
|
||||||
continue loop
|
|
||||||
}
|
|
||||||
}
|
|
||||||
if err := w.close(); err != tc.wantErr {
|
|
||||||
t.Errorf("%s: got close error %v, want %v",
|
|
||||||
tc.desc, err, tc.wantErr)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
if rec.Code != tc.wantCode {
|
|
||||||
t.Errorf("%s: got HTTP status code %d, want %d\n",
|
|
||||||
tc.desc, rec.Code, tc.wantCode)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
gotXML := rec.Body.String()
|
|
||||||
eq, err := n.equalXML(strings.NewReader(gotXML), strings.NewReader(tc.wantXML))
|
|
||||||
if err != nil {
|
|
||||||
t.Errorf("%s: equalXML: %v", tc.desc, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
if !eq {
|
|
||||||
t.Errorf("%s: XML body\ngot %s\nwant %s", tc.desc, gotXML, tc.wantXML)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestReadProppatch(t *testing.T) {
|
|
||||||
ppStr := func(pps []Proppatch) string {
|
|
||||||
var outer []string
|
|
||||||
for _, pp := range pps {
|
|
||||||
var inner []string
|
|
||||||
for _, p := range pp.Props {
|
|
||||||
inner = append(inner, fmt.Sprintf("{XMLName: %q, Lang: %q, InnerXML: %q}",
|
|
||||||
p.XMLName, p.Lang, p.InnerXML))
|
|
||||||
}
|
|
||||||
outer = append(outer, fmt.Sprintf("{Remove: %t, Props: [%s]}",
|
|
||||||
pp.Remove, strings.Join(inner, ", ")))
|
|
||||||
}
|
|
||||||
return "[" + strings.Join(outer, ", ") + "]"
|
|
||||||
}
|
|
||||||
|
|
||||||
testCases := []struct {
|
|
||||||
desc string
|
|
||||||
input string
|
|
||||||
wantPP []Proppatch
|
|
||||||
wantStatus int
|
|
||||||
}{{
|
|
||||||
desc: "proppatch: section 9.2 (with simple property value)",
|
|
||||||
input: `` +
|
|
||||||
`<?xml version="1.0" encoding="utf-8" ?>` +
|
|
||||||
`<D:propertyupdate xmlns:D="DAV:"` +
|
|
||||||
` xmlns:Z="http://ns.example.com/z/">` +
|
|
||||||
` <D:set>` +
|
|
||||||
` <D:prop><Z:Authors>somevalue</Z:Authors></D:prop>` +
|
|
||||||
` </D:set>` +
|
|
||||||
` <D:remove>` +
|
|
||||||
` <D:prop><Z:Copyright-Owner/></D:prop>` +
|
|
||||||
` </D:remove>` +
|
|
||||||
`</D:propertyupdate>`,
|
|
||||||
wantPP: []Proppatch{{
|
|
||||||
Props: []Property{{
|
|
||||||
xml.Name{Space: "http://ns.example.com/z/", Local: "Authors"},
|
|
||||||
"",
|
|
||||||
[]byte(`somevalue`),
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
Remove: true,
|
|
||||||
Props: []Property{{
|
|
||||||
xml.Name{Space: "http://ns.example.com/z/", Local: "Copyright-Owner"},
|
|
||||||
"",
|
|
||||||
nil,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
desc: "proppatch: lang attribute on prop",
|
|
||||||
input: `` +
|
|
||||||
`<?xml version="1.0" encoding="utf-8" ?>` +
|
|
||||||
`<D:propertyupdate xmlns:D="DAV:">` +
|
|
||||||
` <D:set>` +
|
|
||||||
` <D:prop xml:lang="en">` +
|
|
||||||
` <foo xmlns="http://example.com/ns"/>` +
|
|
||||||
` </D:prop>` +
|
|
||||||
` </D:set>` +
|
|
||||||
`</D:propertyupdate>`,
|
|
||||||
wantPP: []Proppatch{{
|
|
||||||
Props: []Property{{
|
|
||||||
xml.Name{Space: "http://example.com/ns", Local: "foo"},
|
|
||||||
"en",
|
|
||||||
nil,
|
|
||||||
}},
|
|
||||||
}},
|
|
||||||
}, {
|
|
||||||
desc: "bad: remove with value",
|
|
||||||
input: `` +
|
|
||||||
`<?xml version="1.0" encoding="utf-8" ?>` +
|
|
||||||
`<D:propertyupdate xmlns:D="DAV:"` +
|
|
||||||
` xmlns:Z="http://ns.example.com/z/">` +
|
|
||||||
` <D:remove>` +
|
|
||||||
` <D:prop>` +
|
|
||||||
` <Z:Authors>` +
|
|
||||||
` <Z:Author>Jim Whitehead</Z:Author>` +
|
|
||||||
` </Z:Authors>` +
|
|
||||||
` </D:prop>` +
|
|
||||||
` </D:remove>` +
|
|
||||||
`</D:propertyupdate>`,
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
desc: "bad: empty propertyupdate",
|
|
||||||
input: `` +
|
|
||||||
`<?xml version="1.0" encoding="utf-8" ?>` +
|
|
||||||
`<D:propertyupdate xmlns:D="DAV:"` +
|
|
||||||
`</D:propertyupdate>`,
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}, {
|
|
||||||
desc: "bad: empty prop",
|
|
||||||
input: `` +
|
|
||||||
`<?xml version="1.0" encoding="utf-8" ?>` +
|
|
||||||
`<D:propertyupdate xmlns:D="DAV:"` +
|
|
||||||
` xmlns:Z="http://ns.example.com/z/">` +
|
|
||||||
` <D:remove>` +
|
|
||||||
` <D:prop/>` +
|
|
||||||
` </D:remove>` +
|
|
||||||
`</D:propertyupdate>`,
|
|
||||||
wantStatus: http.StatusBadRequest,
|
|
||||||
}}
|
|
||||||
|
|
||||||
for _, tc := range testCases {
|
|
||||||
pp, status, err := readProppatch(strings.NewReader(tc.input))
|
|
||||||
if tc.wantStatus != 0 {
|
|
||||||
if err == nil {
|
|
||||||
t.Errorf("%s: got nil error, want non-nil", tc.desc)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
} else if err != nil {
|
|
||||||
t.Errorf("%s: %v", tc.desc, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
if status != tc.wantStatus {
|
|
||||||
t.Errorf("%s: got status %d, want %d", tc.desc, status, tc.wantStatus)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
if !reflect.DeepEqual(pp, tc.wantPP) || status != tc.wantStatus {
|
|
||||||
t.Errorf("%s: proppatch\ngot %v\nwant %v", tc.desc, ppStr(pp), ppStr(tc.wantPP))
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func TestUnmarshalXMLValue(t *testing.T) {
|
|
||||||
testCases := []struct {
|
|
||||||
desc string
|
|
||||||
input string
|
|
||||||
wantVal string
|
|
||||||
}{{
|
|
||||||
desc: "simple char data",
|
|
||||||
input: "<root>foo</root>",
|
|
||||||
wantVal: "foo",
|
|
||||||
}, {
|
|
||||||
desc: "empty element",
|
|
||||||
input: "<root><foo/></root>",
|
|
||||||
wantVal: "<foo/>",
|
|
||||||
}, {
|
|
||||||
desc: "preserve namespace",
|
|
||||||
input: `<root><foo xmlns="bar"/></root>`,
|
|
||||||
wantVal: `<foo xmlns="bar"/>`,
|
|
||||||
}, {
|
|
||||||
desc: "preserve root element namespace",
|
|
||||||
input: `<root xmlns:bar="bar"><bar:foo/></root>`,
|
|
||||||
wantVal: `<foo xmlns="bar"/>`,
|
|
||||||
}, {
|
|
||||||
desc: "preserve whitespace",
|
|
||||||
input: "<root> \t </root>",
|
|
||||||
wantVal: " \t ",
|
|
||||||
}, {
|
|
||||||
desc: "preserve mixed content",
|
|
||||||
input: `<root xmlns="bar"> <foo>a<bam xmlns="baz"/> </foo> </root>`,
|
|
||||||
wantVal: ` <foo xmlns="bar">a<bam xmlns="baz"/> </foo> `,
|
|
||||||
}, {
|
|
||||||
desc: "section 9.2",
|
|
||||||
input: `` +
|
|
||||||
`<Z:Authors xmlns:Z="http://ns.example.com/z/">` +
|
|
||||||
` <Z:Author>Jim Whitehead</Z:Author>` +
|
|
||||||
` <Z:Author>Roy Fielding</Z:Author>` +
|
|
||||||
`</Z:Authors>`,
|
|
||||||
wantVal: `` +
|
|
||||||
` <Author xmlns="http://ns.example.com/z/">Jim Whitehead</Author>` +
|
|
||||||
` <Author xmlns="http://ns.example.com/z/">Roy Fielding</Author>`,
|
|
||||||
}, {
|
|
||||||
desc: "section 4.3.1 (mixed content)",
|
|
||||||
input: `` +
|
|
||||||
`<x:author ` +
|
|
||||||
` xmlns:x='http://example.com/ns' ` +
|
|
||||||
` xmlns:D="DAV:">` +
|
|
||||||
` <x:name>Jane Doe</x:name>` +
|
|
||||||
` <!-- Jane's contact info -->` +
|
|
||||||
` <x:uri type='email'` +
|
|
||||||
` added='2005-11-26'>mailto:jane.doe@example.com</x:uri>` +
|
|
||||||
` <x:uri type='web'` +
|
|
||||||
` added='2005-11-27'>http://www.example.com</x:uri>` +
|
|
||||||
` <x:notes xmlns:h='http://www.w3.org/1999/xhtml'>` +
|
|
||||||
` Jane has been working way <h:em>too</h:em> long on the` +
|
|
||||||
` long-awaited revision of <![CDATA[<RFC2518>]]>.` +
|
|
||||||
` </x:notes>` +
|
|
||||||
`</x:author>`,
|
|
||||||
wantVal: `` +
|
|
||||||
` <name xmlns="http://example.com/ns">Jane Doe</name>` +
|
|
||||||
` ` +
|
|
||||||
` <uri type='email'` +
|
|
||||||
` xmlns="http://example.com/ns" ` +
|
|
||||||
` added='2005-11-26'>mailto:jane.doe@example.com</uri>` +
|
|
||||||
` <uri added='2005-11-27'` +
|
|
||||||
` type='web'` +
|
|
||||||
` xmlns="http://example.com/ns">http://www.example.com</uri>` +
|
|
||||||
` <notes xmlns="http://example.com/ns" ` +
|
|
||||||
` xmlns:h="http://www.w3.org/1999/xhtml">` +
|
|
||||||
` Jane has been working way <h:em>too</h:em> long on the` +
|
|
||||||
` long-awaited revision of <RFC2518>.` +
|
|
||||||
` </notes>`,
|
|
||||||
}}
|
|
||||||
|
|
||||||
var n xmlNormalizer
|
|
||||||
for _, tc := range testCases {
|
|
||||||
d := ixml.NewDecoder(strings.NewReader(tc.input))
|
|
||||||
var v xmlValue
|
|
||||||
if err := d.Decode(&v); err != nil {
|
|
||||||
t.Errorf("%s: got error %v, want nil", tc.desc, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
eq, err := n.equalXML(bytes.NewReader(v), strings.NewReader(tc.wantVal))
|
|
||||||
if err != nil {
|
|
||||||
t.Errorf("%s: equalXML: %v", tc.desc, err)
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
if !eq {
|
|
||||||
t.Errorf("%s:\ngot %s\nwant %s", tc.desc, string(v), tc.wantVal)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
// xmlNormalizer normalizes XML.
|
|
||||||
type xmlNormalizer struct {
|
|
||||||
// omitWhitespace instructs to ignore whitespace between element tags.
|
|
||||||
omitWhitespace bool
|
|
||||||
// omitComments instructs to ignore XML comments.
|
|
||||||
omitComments bool
|
|
||||||
}
|
|
||||||
|
|
||||||
// normalize writes the normalized XML content of r to w. It applies the
|
|
||||||
// following rules
|
|
||||||
//
|
|
||||||
// * Rename namespace prefixes according to an internal heuristic.
|
|
||||||
// * Remove unnecessary namespace declarations.
|
|
||||||
// * Sort attributes in XML start elements in lexical order of their
|
|
||||||
// fully qualified name.
|
|
||||||
// * Remove XML directives and processing instructions.
|
|
||||||
// * Remove CDATA between XML tags that only contains whitespace, if
|
|
||||||
// instructed to do so.
|
|
||||||
// * Remove comments, if instructed to do so.
|
|
||||||
//
|
|
||||||
func (n *xmlNormalizer) normalize(w io.Writer, r io.Reader) error {
|
|
||||||
d := ixml.NewDecoder(r)
|
|
||||||
e := ixml.NewEncoder(w)
|
|
||||||
for {
|
|
||||||
t, err := d.Token()
|
|
||||||
if err != nil {
|
|
||||||
if t == nil && err == io.EOF {
|
|
||||||
break
|
|
||||||
}
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
switch val := t.(type) {
|
|
||||||
case ixml.Directive, ixml.ProcInst:
|
|
||||||
continue
|
|
||||||
case ixml.Comment:
|
|
||||||
if n.omitComments {
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
case ixml.CharData:
|
|
||||||
if n.omitWhitespace && len(bytes.TrimSpace(val)) == 0 {
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
case ixml.StartElement:
|
|
||||||
start, _ := ixml.CopyToken(val).(ixml.StartElement)
|
|
||||||
attr := start.Attr[:0]
|
|
||||||
for _, a := range start.Attr {
|
|
||||||
if a.Name.Space == "xmlns" || a.Name.Local == "xmlns" {
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
attr = append(attr, a)
|
|
||||||
}
|
|
||||||
sort.Sort(byName(attr))
|
|
||||||
start.Attr = attr
|
|
||||||
t = start
|
|
||||||
}
|
|
||||||
err = e.EncodeToken(t)
|
|
||||||
if err != nil {
|
|
||||||
return err
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return e.Flush()
|
|
||||||
}
|
|
||||||
|
|
||||||
// equalXML tests for equality of the normalized XML contents of a and b.
|
|
||||||
func (n *xmlNormalizer) equalXML(a, b io.Reader) (bool, error) {
|
|
||||||
var buf bytes.Buffer
|
|
||||||
if err := n.normalize(&buf, a); err != nil {
|
|
||||||
return false, err
|
|
||||||
}
|
|
||||||
normA := buf.String()
|
|
||||||
buf.Reset()
|
|
||||||
if err := n.normalize(&buf, b); err != nil {
|
|
||||||
return false, err
|
|
||||||
}
|
|
||||||
normB := buf.String()
|
|
||||||
return normA == normB, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
type byName []ixml.Attr
|
|
||||||
|
|
||||||
func (a byName) Len() int { return len(a) }
|
|
||||||
func (a byName) Swap(i, j int) { a[i], a[j] = a[j], a[i] }
|
|
||||||
func (a byName) Less(i, j int) bool {
|
|
||||||
if a[i].Name.Space != a[j].Name.Space {
|
|
||||||
return a[i].Name.Space < a[j].Name.Space
|
|
||||||
}
|
|
||||||
return a[i].Name.Local < a[j].Name.Local
|
|
||||||
}
|
|
Loading…
Reference in new issue