8fcd0301ff70fc4092ddacb6ba5cbb9d47bb0efe
[lambda.git] / week11.mdwn
1 These notes may change in the next few days (today is 30 Nov 2010).
2 The material here benefited from many discussions with Ken Shan.
3
4 ##[[Tree and List Zippers]]##
5
6 ##[[Coroutines and Aborts]]##
7
8 ##[[From Lists to Continuations]]##
9
10 ##Same-fringe using a zipper-based coroutine##
11
12 Recall back in [[Assignment4]], we asked you to enumerate the "fringe" of a leaf-labeled tree. Both of these trees (here I *am* drawing the labels in the diagram):
13
14             .                .
15            / \              / \
16           .   3            1   .
17          / \                  / \
18         1   2                2   3
19
20 have the same fringe: `[1;2;3]`. We also asked you to write a function that determined when two trees have the same fringe. The way you approached that back then was to enumerate each tree's fringe, and then compare the two lists for equality. Today, and then again in a later class, we'll encounter new ways to approach the problem of determining when two trees have the same fringe.
21
22
23 Supposing you did work out an implementation of the tree zipper, then one way to determine whether two trees have the same fringe would be: go downwards (and leftwards) in each tree as far as possible. Compare the targetted leaves. If they're different, stop because the trees have different fringes. If they're the same, then for each tree, move rightward if possible; if it's not (because you're at the rightmost position in a sibling list), more upwards then try again to move rightwards. Repeat until you are able to move rightwards. Once you do move rightwards, go downwards (and leftwards) as far as possible. Then you'll be targetted on the next leaf in the tree's fringe. The operations it takes to get to "the next leaf" may be different for the two trees. For example, in these trees:
24
25             .                .
26            / \              / \
27           .   3            1   .
28          / \                  / \
29         1   2                2   3
30
31 you won't move upwards at the same steps. Keep comparing "the next leafs" until they are different, or you exhaust the leafs of only one of the trees (then again the trees have different fringes), or you exhaust the leafs of both trees at the same time, without having found leafs with different labels. In this last case, the trees have the same fringe.
32
33 If your trees are very big---say, millions of leaves---you can imagine how this would be quicker and more memory-efficient than traversing each tree to construct a list of its fringe, and then comparing the two lists so built to see if they're equal. For one thing, the zipper method can abort early if the fringes diverge early, without needing to traverse or build a list containing the rest of each tree's fringe.
34
35 Let's sketch the implementation of this. We won't provide all the details for an implementation of the tree zipper, but we will sketch an interface for it.
36
37 First, we define a type for leaf-labeled, binary trees:
38
39         type 'a tree = Leaf of 'a | Node of ('a tree * 'a tree)
40
41 Next, the interface for our tree zippers. We'll help ourselves to OCaml's **record types**. These are nothing more than tuples with a pretty interface. Instead of saying:
42
43         # type blah = Blah of (int * int * (char -> bool));;
44
45 and then having to remember which element in the triple was which:
46
47         # let b1 = Blah (1, (fun c -> c = 'M'), 2);;
48         Error: This expression has type int * (char -> bool) * int
49        but an expression was expected of type int * int * (char -> bool)
50         # (* damnit *)
51         # let b1 = Blah (1, 2, (fun c -> c = 'M'));;
52         val b1 : blah = Blah (1, 2, <fun>)
53
54 records let you attach descriptive labels to the components of the tuple:
55
56         # type blah_record = { height : int; weight : int; char_tester : char -> bool };;
57         # let b2 = { height = 1; weight = 2; char_tester = fun c -> c = 'M' };;
58         val b2 : blah_record = {height = 1; weight = 2; char_tester = <fun>}
59         # let b3 = { height = 1; char_tester = (fun c -> c = 'K'); weight = 3 };; (* also works *)
60         val b3 : blah_record = {height = 1; weight = 3; char_tester = <fun>}
61
62 These were the strategies to extract the components of an unlabeled tuple:
63
64         let h = fst some_pair;; (* accessor functions fst and snd are only predefined for pairs *)
65
66         let (h, w, test) = b1;; (* works for arbitrary tuples *)
67
68         match b1 with
69         | (h, w, test) -> ...;; (* same as preceding *)
70
71 Here is how you can extract the components of a labeled record:
72
73         let h = b2.height;; (* handy! *)
74
75         let {height = h; weight = w; char_tester = test} = b2
76         in (* go on to use h, w, and test ... *)
77
78         match test with
79         | {height = h; weight = w; char_tester = test} ->
80                 (* go on to use h, w, and test ... *)
81
82 Anyway, using record types, we might define the tree zipper interface like so:
83
84         type 'a starred_level = Root | Starring_Left of 'a starred_nonroot | Starring_Right of 'a starred_nonroot
85         and 'a starred_nonroot = { parent : 'a starred_level; sibling: 'a tree };;
86
87         type 'a zipper = { level : 'a starred_level; filler: 'a tree };;
88
89         let rec move_botleft (z : 'a zipper) : 'a zipper =
90             (* returns z if the targetted node in z has no children *)
91             (* else returns move_botleft (zipper which results from moving down and left in z) *)
92
93 <!--
94             let {level; filler} = z
95             in match filler with
96             | Leaf _ -> z
97             | Node(left, right) ->
98                 let zdown = {level = Starring_Left {parent = level; sibling = right}; filler = left}
99                 in move_botleft zdown
100             ;;
101 -->
102
103         let rec move_right_or_up (z : 'a zipper) : 'a zipper option =
104             (* if it's possible to move right in z, returns Some (the result of doing so) *)
105             (* else if it's not possible to move any further up in z, returns None *)
106             (* else returns move_right_or_up (result of moving up in z) *)
107
108 <!--
109             let {level; filler} = z
110             in match level with
111             | Starring_Left {parent; sibling = right} -> Some {level = Starring_Right {parent; sibling = filler}; filler = right}
112             | Root -> None
113             | Starring_Right {parent; sibling = left} ->
114                 let z' = {level = parent; filler = Node(left, filler)}
115                 in move_right_or_up z'
116             ;;
117 -->
118
119 The following function takes an 'a tree and returns an 'a zipper focused on its root:
120
121         let new_zipper (t : 'a tree) : 'a zipper =
122             {level = Root; filler = t}
123             ;;
124
125 Finally, we can use a mutable reference cell to define a function that enumerates a tree's fringe until it's exhausted:
126
127         let make_fringe_enumerator (t: 'a tree) =
128             (* create a zipper targetting the botleft of t *)
129             let zbotleft = move_botleft (new_zipper t)
130             (* create a refcell initially pointing to zbotleft *)
131             in let zcell = ref (Some zbotleft)
132             (* construct the next_leaf function *)
133             in let next_leaf () : 'a option =
134                 match !zcell with
135                 | Some z -> (
136                     (* extract label of currently-targetted leaf *)
137                     let Leaf current = z.filler
138                     (* update zcell to point to next leaf, if there is one *)
139                     in let () = zcell := match move_right_or_up z with
140                         | None -> None
141                         | Some z' -> Some (move_botleft z')
142                     (* return saved label *)
143                     in Some current
144                 | None -> (* we've finished enumerating the fringe *)
145                     None
146                 )
147             (* return the next_leaf function *)
148             in next_leaf
149             ;;
150
151 Here's an example of `make_fringe_enumerator` in action:
152
153         # let tree1 = Leaf 1;;
154         val tree1 : int tree = Leaf 1
155         # let next1 = make_fringe_enumerator tree1;;
156         val next1 : unit -> int option = <fun>
157         # next1 ();;
158         - : int option = Some 1
159         # next1 ();;
160         - : int option = None
161         # next1 ();;
162         - : int option = None
163         # let tree2 = Node (Node (Leaf 1, Leaf 2), Leaf 3);;
164         val tree2 : int tree = Node (Node (Leaf 1, Leaf 2), Leaf 3)
165         # let next2 = make_fringe_enumerator tree2;;
166         val next2 : unit -> int option = <fun>
167         # next2 ();;
168         - : int option = Some 1
169         # next2 ();;
170         - : int option = Some 2
171         # next2 ();;
172         - : int option = Some 3
173         # next2 ();;
174         - : int option = None
175         # next2 ();;
176         - : int option = None
177
178 You might think of it like this: `make_fringe_enumerator` returns a little subprogram that will keep returning the next leaf in a tree's fringe, in the form `Some ...`, until it gets to the end of the fringe. After that, it will keep returning `None`.
179
180 Using these fringe enumerators, we can write our `same_fringe` function like this:
181
182         let same_fringe (t1 : 'a tree) (t2 : 'a tree) : bool =
183                 let next1 = make_fringe_enumerator t1
184                 in let next2 = make_fringe_enumerator t2
185                 in let rec loop () : bool =
186                         match next1 (), next2 () with
187                         | Some a, Some b when a = b -> loop ()
188                         | None, None -> true
189                         | _ -> false
190                 in loop ()
191                 ;;
192
193 The auxiliary `loop` function will keep calling itself recursively until a difference in the fringes has manifested itself---either because one fringe is exhausted before the other, or because the next leaves in the two fringes have different labels. If we get to the end of both fringes at the same time (`next1 (), next2 ()` matches the pattern `None, None`) then we've established that the trees do have the same fringe.
194
195 The technique illustrated here with our fringe enumerators is a powerful and important one. It's an example of what's sometimes called **cooperative threading**. A "thread" is a subprogram that the main computation spawns off. Threads are called "cooperative" when the code of the main computation and the thread fixes when control passes back and forth between them. (When the code doesn't control this---for example, it's determined by the operating system or the hardware in ways that the programmer can't predict---that's called "preemptive threading.") Cooperative threads are also sometimes called *coroutines* or *generators*.
196
197 With cooperative threads, one typically yields control to the thread, and then back again to the main program, multiple times. Here's the pattern in which that happens in our `same_fringe` function:
198
199         main program            next1 thread            next2 thread
200         ------------            ------------            ------------
201         start next1
202         (paused)                        starting
203         (paused)                        calculate first leaf
204         (paused)                        <--- return it
205         start next2                     (paused)                        starting
206         (paused)                        (paused)                        calculate first leaf
207         (paused)                        (paused)                        <-- return it
208         compare leaves          (paused)                        (paused)
209         call loop again         (paused)                        (paused)
210         call next1 again        (paused)                        (paused)
211         (paused)                        calculate next leaf     (paused)
212         (paused)                        <-- return it           (paused)
213         ... and so on ...
214
215 If you want to read more about these kinds of threads, here are some links:
216
217 <!-- *  [[!wikipedia Computer_multitasking]]
218 *       [[!wikipedia Thread_(computer_science)]] -->
219
220 *       [[!wikipedia Coroutine]]
221 *       [[!wikipedia Iterator]]
222 *       [[!wikipedia Generator_(computer_science)]]
223 *       [[!wikipedia Fiber_(computer_science)]]
224 <!-- *  [[!wikipedia Green_threads]]
225 *       [[!wikipedia Protothreads]] -->
226
227 The way we built cooperative threads here crucially relied on two heavyweight tools. First, it relied on our having a data structure (the tree zipper) capable of being a static snapshot of where we left off in the tree whose fringe we're enumerating. Second, it relied on our using mutable reference cells so that we could update what the current snapshot (that is, tree zipper) was, so that the next invocation of the `next_leaf` function could start up again where the previous invocation left off.
228
229 It's possible to build cooperative threads without using those tools, however. Some languages have a native syntax for them. Here's how we'd write the same-fringe solution above using native coroutines in the language Lua:
230
231         > function fringe_enumerator (tree)
232             if tree.leaf then
233                 coroutine.yield (tree.leaf)
234             else
235                 fringe_enumerator (tree.left)
236                 fringe_enumerator (tree.right)
237             end
238         end
239         
240         > function same_fringe (tree1, tree2)
241             local next1 = coroutine.wrap (fringe_enumerator)
242             local next2 = coroutine.wrap (fringe_enumerator)
243             local function loop (leaf1, leaf2)
244                 if leaf1 or leaf2 then
245                     return leaf1 == leaf2 and loop( next1(), next2() )
246                 elseif not leaf1 and not leaf2 then
247                     return true
248                 else
249                     return false
250                 end
251             end
252             return loop (next1(tree1), next2(tree2))
253         end
254         
255         > return same_fringe ( {leaf=1}, {leaf=2})
256         false
257         
258         > return same_fringe ( {leaf=1}, {leaf=1})
259         true
260         
261         > return same_fringe ( {left = {leaf=1}, right = {left = {leaf=2}, right = {leaf=3}}},
262             {left = {left = {leaf=1}, right = {leaf=2}}, right = {leaf=3}} )
263         true
264
265 We're going to think about the underlying principles to this execution pattern, and instead learn how to implement it from scratch---without necessarily having zippers to rely on.
266
267
268 ##Exceptions and Aborts##
269
270 To get a better understanding of how that execution patter works, we'll add yet a second execution pattern to our plate, and then think about what they have in common.
271
272 While writing OCaml code, you've probably come across errors. In fact, you've probably come across errors of two sorts. One sort of error comes about when you've got syntax errors or type errors and the OCaml interpreter isn't even able to understand your code:
273
274         # let lst = [1; 2] in
275           "a" :: lst;;
276         Error: This expression has type int list
277                    but an expression was expected of type string list
278
279 But you may also have encountered other kinds of error, that arise while your program is running. For example:
280
281         # 1/0;;
282         Exception: Division_by_zero.
283         # List.nth [1;2] 10;;
284         Exception: Failure "nth".
285
286 These "Exceptions" are **run-time errors**. OCaml will automatically detect some of them, like when you attempt to divide by zero. Other exceptions are *raised* by code. For instance, here is the implementation of `List.nth`:
287
288         let nth l n =
289           if n < 0 then invalid_arg "List.nth" else
290           let rec nth_aux l n =
291                 match l with
292                 | [] -> failwith "nth"
293                 | a::l -> if n = 0 then a else nth_aux l (n-1)
294           in nth_aux l n
295
296 Notice the two clauses `invalid_arg "List.nth"` and `failwith "nth"`. These are two helper functions which are shorthand for:
297
298         raise (Invalid_argument "List.nth");;
299         raise (Failure "nth");;
300
301 where `Invalid_argument "List.nth"` is a value of type `exn`, and so too `Failure "nth"`. When you have some value `ex` of type `exn` and evaluate the expression:
302
303         raise ex
304
305 the effect is for the program to immediately stop without evaluating any further code:
306
307         # let xcell = ref 0;;
308         val xcell : int ref = {contents = 0}
309         # let ex = Failure "test"
310           in let _ = raise ex
311           in xcell := 1;;
312         Exception: Failure "test".
313         # !xcell;;
314         - : int = 0
315
316 Notice that the line `xcell := 1` was never evaluated, so the contents of `xcell` are still `0`.
317
318 I said when you evaluate the expression:
319
320         raise ex
321
322 the effect is for the program to immediately stop. That's not exactly true. You can also programmatically arrange to *catch* errors, without the program necessarily stopping. In OCaml we do that with a `try ... with PATTERN -> ...` construct, analogous to the `match ... with PATTERN -> ...` construct:
323
324         # let foo x =
325             try
326                 if x = 1 then 10
327                 else if x = 2 then raise (Failure "two")
328                 else raise (Failure "three")
329             with Failure "two" -> 20
330             ;;
331         val foo : int -> int = <fun>
332         # foo 1;;
333         - : int = 10
334         # foo 2;;
335         - : int = 20
336         # foo 3;;
337         Exception: Failure "three".
338
339 Notice what happens here. If we call `foo 1`, then the code between `try` and `with` evaluates to `10`, with no exceptions being raised. That then is what the entire `try ... with ...` block evaluates to; and so too what `foo 1` evaluates to. If we call `foo 2`, then the code between `try` and `with` raises an exception `Failure "two"`. The pattern in the `with` clause matches that exception, so we get instead `20`. If we call `foo 3`, we again raise an exception. This exception isn't matched by the `with` block, so it percolates up to the top of the program, and then the program immediately stops.
340
341 So what I should have said is that when you evaluate the expression:
342
343         raise ex
344
345 *and that exception is never caught*, then the effect is for the program to immediately stop.
346
347 Of course, it's possible to handle errors in other ways too. There's no reason why the implementation of `List.nth` *had* to do things this way. They might instead have returned `Some a` when the list had an nth member `a`, and `None` when it does not. But it's pedagogically useful for us to think about this pattern now.
348
349 When an exception is raised, it percolates up through the code that called it, until it finds a surrounding `try ... with ...` that matches it. That might not be the first `try ... with ...` that it encounters. For example:
350
351         # try
352             try
353                 raise (Failure "blah")
354             with Failure "fooey" -> 10
355           with Failure "blah" -> 20;;
356         - : int = 20
357
358 The matching `try ... with ...` block need not *lexically surround* the site where the error was raised:
359
360         # let foo b x =
361             try
362                 b x
363             with Failure "blah" -> 20
364         in let bar x =
365             raise (Failure "blah")
366         in foo bar 0;;
367         - : int = 20
368
369 Here we call `foo bar 0`, and `foo` in turn calls `bar 0`, and `bar` raises the exception. Since there's no matching `try ... with ...` block in `bar`, we percolate back up the history of *who called this function?* and find a matching `try ... with ...` block in `foo`. This catches the error and so then the `try ... with ...` block in `foo` that called `bar` in the first place will evaluate to `20`.
370
371 OK, now this exception-handling apparatus does exemplify the second execution pattern we want to focus on. But it may bring it into clearer focus if we simplify the pattern even more. Imagine we could write code like this instead:
372
373         # let foo x =
374             try
375                 (if x = 1 then 10
376                 else abort 20) + 1
377             end
378             ;;
379
380 then if we called `foo 1`, we'd get the result `11`. If we called `foo 2`, on the other hand, we'd get `20` (note, not `21`). This exemplifies the same interesting "jump out of this part of the code" behavior that the `try ... raise ... with ...` code does, but without the details of matching which exception was raised, and handling the exception to produce a new result.
381
382 Many programming languages have this simplified exceution pattern, either instead of or alongside a `try ... with ...`-like pattern. In Lua and many other languages, `abort` is instead called `return`. The preceding example would be written:
383
384         > function foo(x)
385             local value
386             if (x == 1) then
387                 value = 10
388             else
389                 return 20
390             end
391             return value + 1
392         end
393         
394         > return foo(1)
395         11
396         
397         > return foo(2)
398         20
399
400 Okay, so that's our second execution pattern.
401
402 ##What do these have in common?##
403
404 In both of these patterns, we need to have some way to take a snapshot of where we are in the evaluation of a complex piece of code, so that we might later resume execution at that point. In the coroutine example, the two threads need to have a snapshot of where they were in the enumeration of their tree's leaves. In the abort example, we need to have a snapshot of where to pick up again if some embedded piece of code aborts. Sometimes we might distill that snapshot into a datastructure like a zipper. But we might not always know how to do so; and learning how to think about these snapshots without the help of zippers will help us see patterns and similarities we might otherwise miss.
405
406 A more general way to think about these snapshots is to think of the code we're taking a snapshot of as a *function.* For example, in this code:
407
408         let foo x =
409             try
410                 (if x = 1 then 10
411                 else abort 20) + 1
412             end
413         in (foo 2) + 1;;
414
415 we can imagine a box:
416
417         let foo x =
418         +---------------------------+
419         |   try                     |
420         |       (if x = 1 then 10   |
421         |       else abort 20) + 1  |
422         |   end                     |
423         +---------------------------+
424         in (foo 2) + 1;;
425
426 and as we're about to enter the box, we want to take a snapshot of the code *outside* the box. If we decide to abort, we'd be aborting to that snapshotted code.
427
428 <!--
429 # #require "delimcc";;
430 # open Delimcc;;
431 # let reset body = let p = new_prompt () in push_prompt p (body p);;
432 val reset : ('a Delimcc.prompt -> unit -> 'a) -> 'a = <fun>
433 # let foo x = reset(fun p () -> (shift p (fun k -> if x = 1 then k 10 else 20)) + 1) in (foo 1) + 100;;
434 - : int = 111
435 # let foo x = reset(fun p () -> (shift p (fun k -> if x = 1 then k 10 else 20)) + 1) in (foo 2) + 100;;
436 - : int = 120
437 -->
438
439
440
441
442 --------------------------------------
443
444 In coming weeks, we'll learn about a different way to create threads, that relies on **continuations** rather than on those two tools. All of these tools are inter-related. As Oleg says, "Zipper can be viewed as a delimited continuation reified as a data structure." These different tools are also inter-related with monads. Many of these tools can be used to define the others. We'll explore some of the connections between them in the remaining weeks, but we encourage you to explore more.
445
446
447 ##Introducing Continuations##
448
449 A continuation is "the rest of the program." Or better: an **delimited continuation** is "the rest of the program, up to a certain boundary." An **undelimited continuation** is "the rest of the program, period."
450
451 Even if you haven't read specifically about this notion (for example, even if you haven't read Chris and Ken's work on using continuations in natural language semantics), you'll have brushed shoulders with it already several times in this course.
452
453 A naive semantics for atomic sentences will say the subject term is of type `e`, and the predicate of type `e -> t`, and that the subject provides an argument to the function expressed by the predicate.
454
455 Monatague proposed we instead take subject terms to be of type `(e -> t) -> t`, and that now it'd be the predicate (still of type `e -> t`) that provides an argument to the function expressed by the subject.
456
457 If all the subject did then was supply an `e` to the `e -> t` it receives as an argument, we wouldn't have gained anything we weren't already able to do. But of course, there are other things the subject can do with the `e -> t` it receives as an argument. For instance, it can check whether anything in the domain satisfies that `e -> t`; or whether most things do; and so on.
458
459 This inversion of who is the argument and who is the function receiving the argument is paradigmatic of working with continuations. We did the same thing ourselves back in the early days of the seminar, for example in our implementation of pairs. In the untyped lambda calculus, we identified the pair `(x, y)` with a function:
460
461         \handler. handler x y
462
463 A pair-handling function would accept the two elements of a pair as arguments, and then do something with one or both of them. The important point here is that the handler was supplied as an argument to the pair. Eventually, the handler would itself be supplied with arguments. But only after it was supplied as an argument to the pair. This inverts the order you'd expect about what is the data or argument, and what is the function that operates on it.
464
465 Consider a complex computation, such as:
466
467         1 + 2 * (1 - g (3 + 4))
468
469 Part of this computation---`3 + 4`---leads up to supplying `g` with an argument. The rest of the computation---`1 + 2 * (1 - ___)`---waits for the result of applying `g` to that argument and will go on to do something with it (inserting the result into the `___` slot). That "rest of the computation" can be regarded as a function:
470
471         \result. 1 + 2 * (1 - result)
472
473 This function will be applied to whatever is the result of `g (3 + 4)`. So this function can be called the *continuation* of that application of `g`. For some purposes, it's useful to be able to invert the function/argument order here, and rather than supplying the result of applying `g` to the continuation, we instead supply the continuation to `g`. Well, not to `g` itself, since `g` only wants a single `int` argument. But we might build some `g`-like function which accepts not just an `int` argument like `g` does, but also a continuation argument.
474
475 Go back and read the material on "Aborting a Search Through a List" in [[Week4]] for an example of doing this.
476
477 In very general terms, the strategy is to work with functions like this:
478
479         let g' k (i : int) =
480                 ... do stuff ...
481                 ... if you want to abort early, supply an argument to k ...
482                 ... do more stuff ...
483                 ... normal result
484         in let gcon = fun result -> 1 + 2 * (1 - result)
485         in gcon (g' gcon (3 + 4))
486
487 It's a convention to use variables like `k` for continuation arguments. If the function `g'` never supplies an argument to its contination argument `k`, but instead just finishes evaluating to a normal result, that normal result will be delivered to `g'`'s continuation `gcon`, just as happens when we don't pass around any explicit continuation variables.
488
489 The above snippet of OCaml code doesn't really capture what happens when we pass explicit continuation variables. For suppose that inside `g'`, we do supply an argument to `k`. That would go into the `result` parameter in `gcon`. But then what happens once we've finished evaluating the application of `gcon` to that `result`? In the OCaml snippet above, the final value would then bubble up through the context in the body of `g'` where `k` was applied, and eventually out to the final line of the snippet, where it once again supplied an argument to `gcon`. That's not what happens with a real continuation. A real continuation works more like this:
490
491         let g' k (i : int) =
492                 ... do stuff ...
493                 ... if you want to abort early, supply an argument to k ...
494                 ... do more stuff ...
495                 ... normal result
496         in let gcon = fun result ->
497                 let final_value = 1 + 2 * (1 - result)
498                 in end_program_with final_value
499         in gcon (g' gcon (3 + 4))
500
501 So once we've finished evaluating the application of `gcon` to a `result`, the program is finished. (This is how undelimited continuations behave. We'll discuss delimited continuations later.)
502
503 So now, guess what would be the result of doing the following:
504
505         let g' k (i : int) =
506                 1 + k i
507         in let gcon = fun result ->
508                 let final_value = (1, result)
509                 in end_program_with final_value
510         in gcon (g' gcon (3 + 4))
511
512 <!-- (1, 7) ... explain why not (1, 8) -->
513
514
515 Refunctionalizing zippers: from lists to continuations
516 ------------------------------------------------------
517
518 If zippers are continuations reified (defuntionalized), then one route
519 to continuations is to re-functionalize a zipper.  Then the
520 concreteness and understandability of the zipper provides a way of
521 understanding and equivalent treatment using continuations.
522
523 Let's work with lists of chars for a change.  To maximize readability, we'll
524 indulge in an abbreviatory convention that "abSd" abbreviates the
525 list `['a'; 'b'; 'S'; 'd']`.
526
527 We will set out to compute a deceptively simple-seeming **task: given a
528 string, replace each occurrence of 'S' in that string with a copy of
529 the string up to that point.**
530
531 We'll define a function `t` (for "task") that maps strings to their
532 updated version.
533
534 Expected behavior:
535
536 <pre>
537 t "abSd" ~~> "ababd"
538 </pre>   
539
540
541 In linguistic terms, this is a kind of anaphora
542 resolution, where `'S'` is functioning like an anaphoric element, and
543 the preceding string portion is the antecedent.
544
545 This deceptively simple task gives rise to some mind-bending complexity.
546 Note that it matters which 'S' you target first (the position of the *
547 indicates the targeted 'S'):
548
549 <pre>
550     t "aSbS" 
551         *
552 ~~> t "aabS" 
553           *
554 ~~> "aabaab"
555 </pre>
556
557 versus
558
559 <pre>
560     t "aSbS"
561           *
562 ~~> t "aSbaSb" 
563         *
564 ~~> t "aabaSb"
565            *
566 ~~> "aabaaabab"
567 </pre>   
568
569 versus
570
571 <pre>
572     t "aSbS"
573           *
574 ~~> t "aSbaSb"
575            *
576 ~~> t "aSbaaSbab"
577             *
578 ~~> t "aSbaaaSbaabab"
579              *
580 ~~> ...
581 </pre>
582
583 Aparently, this task, as simple as it is, is a form of computation,
584 and the order in which the `'S'`s get evaluated can lead to divergent
585 behavior.
586
587 For now, we'll agree to always evaluate the leftmost `'S'`, which
588 guarantees termination, and a final string without any `'S'` in it.
589
590 This is a task well-suited to using a zipper.  We'll define a function
591 `tz` (for task with zippers), which accomplishes the task by mapping a
592 char list zipper to a char list.  We'll call the two parts of the
593 zipper `unzipped` and `zipped`; we start with a fully zipped list, and
594 move elements to the zipped part by pulling the zipped down until the
595 entire list has been unzipped (and so the zipped half of the zipper is empty).
596
597 <pre>
598 type 'a list_zipper = ('a list) * ('a list);;
599
600 let rec tz (z:char list_zipper) = 
601     match z with (unzipped, []) -> List.rev(unzipped) (* Done! *)
602                | (unzipped, 'S'::zipped) -> tz ((List.append unzipped unzipped), zipped) 
603                | (unzipped, target::zipped) -> tz (target::unzipped, zipped);; (* Pull zipper *)
604
605 # tz ([], ['a'; 'b'; 'S'; 'd']);;
606 - : char list = ['a'; 'b'; 'a'; 'b'; 'd']
607
608 # tz ([], ['a'; 'S'; 'b'; 'S']);;
609 - : char list = ['a'; 'a'; 'b'; 'a'; 'a'; 'b']
610 </pre>
611
612 Note that this implementation enforces the evaluate-leftmost rule.
613 Task completed.
614
615 One way to see exactly what is going on is to watch the zipper in
616 action by tracing the execution of `tz`.  By using the `#trace`
617 directive in the Ocaml interpreter, the system will print out the
618 arguments to `tz` each time it is (recurcively) called.  Note that the
619 lines with left-facing arrows (`<--`) show (recursive) calls to `tz`,
620 giving the value of its argument (a zipper), and the lines with
621 right-facing arrows (`-->`) show the output of each recursive call, a
622 simple list.  
623
624 <pre>
625 # #trace tz;;
626 t1 is now traced.
627 # tz ([], ['a'; 'b'; 'S'; 'd']);;
628 tz <-- ([], ['a'; 'b'; 'S'; 'd'])
629 tz <-- (['a'], ['b'; 'S'; 'd'])         (* Pull zipper *)
630 tz <-- (['b'; 'a'], ['S'; 'd'])         (* Pull zipper *)
631 tz <-- (['b'; 'a'; 'b'; 'a'], ['d'])    (* Special step *)
632 tz <-- (['d'; 'b'; 'a'; 'b'; 'a'], [])  (* Pull zipper *)
633 tz --> ['a'; 'b'; 'a'; 'b'; 'd']        (* Output reversed *)
634 tz --> ['a'; 'b'; 'a'; 'b'; 'd']
635 tz --> ['a'; 'b'; 'a'; 'b'; 'd']
636 tz --> ['a'; 'b'; 'a'; 'b'; 'd']
637 tz --> ['a'; 'b'; 'a'; 'b'; 'd']
638 - : char list = ['a'; 'b'; 'a'; 'b'; 'd'] 
639 </pre>
640
641 The nice thing about computations involving lists is that it's so easy
642 to visualize them as a data structure.  Eventually, we want to get to
643 a place where we can talk about more abstract computations.  In order
644 to get there, we'll first do the exact same thing we just did with
645 concrete zipper using procedures.  
646
647 Think of a list as a procedural recipe: `['a'; 'b'; 'S'; 'd']` 
648 is the result of the computation `a::(b::(S::(d::[])))` (or, in our old
649 style, `makelist a (makelist b (makelist S (makelist c empty)))`).
650 The recipe for constructing the list goes like this:
651
652 <pre>
653 (0)  Start with the empty list []
654 (1)  make a new list whose first element is 'd' and whose tail is the list constructed in step (0)
655 (2)  make a new list whose first element is 'S' and whose tail is the list constructed in step (1)
656 -----------------------------------------
657 (3)  make a new list whose first element is 'b' and whose tail is the list constructed in step (2)
658 (4)  make a new list whose first element is 'a' and whose tail is the list constructed in step (3)
659 </pre>
660
661 What is the type of each of these steps?  Well, it will be a function
662 from the result of the previous step (a list) to a new list: it will
663 be a function of type `char list -> char list`.  We'll call each step
664 (or group of steps) a **continuation** of the recipe.  So in this
665 context, a continuation is a function of type `char list -> char
666 list`.  For instance, the continuation corresponding to the portion of
667 the recipe below the horizontal line is the function `fun (tail:char
668 list) -> a::(b::tail)`.
669
670 This means that we can now represent the unzipped part of our
671 zipper--the part we've already unzipped--as a continuation: a function
672 describing how to finish building the list.  We'll write a new
673 function, `tc` (for task with continuations), that will take an input
674 list (not a zipper!) and a continuation and return a processed list.
675 The structure and the behavior will follow that of `tz` above, with
676 some small but interesting differences.  We've included the orginal
677 `tz` to facilitate detailed comparison:
678
679 <pre>
680 let rec tz (z:char list_zipper) = 
681     match z with (unzipped, []) -> List.rev(unzipped) (* Done! *)
682                | (unzipped, 'S'::zipped) -> tz ((List.append unzipped unzipped), zipped) 
683                | (unzipped, target::zipped) -> tz (target::unzipped, zipped);; (* Pull zipper *)
684
685 let rec tc (l: char list) (c: (char list) -> (char list)) =
686   match l with [] -> List.rev (c [])
687              | 'S'::zipped -> tc zipped (fun x -> c (c x))
688              | target::zipped -> tc zipped (fun x -> target::(c x));;
689
690 # tc ['a'; 'b'; 'S'; 'd'] (fun x -> x);;
691 - : char list = ['a'; 'b'; 'a'; 'b']
692
693 # tc ['a'; 'S'; 'b'; 'S'] (fun x -> x);;
694 - : char list = ['a'; 'a'; 'b'; 'a'; 'a'; 'b']
695 </pre>
696
697 To emphasize the parallel, I've re-used the names `zipped` and
698 `target`.  The trace of the procedure will show that these variables
699 take on the same values in the same series of steps as they did during
700 the execution of `tz` above.  There will once again be one initial and
701 four recursive calls to `tc`, and `zipped` will take on the values
702 `"bSd"`, `"Sd"`, `"d"`, and `""` (and, once again, on the final call,
703 the first `match` clause will fire, so the the variable `zipper` will
704 not be instantiated).
705
706 I have not called the functional argument `unzipped`, although that is
707 what the parallel would suggest.  The reason is that `unzipped` is a
708 list, but `c` is a function.  That's the most crucial difference, the
709 point of the excercise, and it should be emphasized.  For instance,
710 you can see this difference in the fact that in `tz`, we have to glue
711 together the two instances of `unzipped` with an explicit (and
712 relatively inefficient) `List.append`.
713 In the `tc` version of the task, we simply compose `c` with itself: 
714 `c o c = fun x -> c (c x)`.
715
716 Why use the identity function as the initial continuation?  Well, if
717 you have already constructed the initial list `"abSd"`, what's the next
718 step in the recipe to produce the desired result, i.e, the very same
719 list, `"abSd"`?  Clearly, the identity continuation.
720
721 A good way to test your understanding is to figure out what the
722 continuation function `c` must be at the point in the computation when
723 `tc` is called with the first argument `"Sd"`.  Two choices: is it
724 `fun x -> a::b::x`, or it is `fun x -> b::a::x`?  The way to see if
725 you're right is to execute the following command and see what happens:
726
727     tc ['S'; 'd'] (fun x -> 'a'::'b'::x);;
728
729 There are a number of interesting directions we can go with this task.
730 The reason this task was chosen is because it can be viewed as a
731 simplified picture of a computation using continuations, where `'S'`
732 plays the role of a control operator with some similarities to what is
733 often called `shift`.  In the analogy, the input list portrays a
734 sequence of functional applications, where `[f1; f2; f3; x]` represents
735 `f1(f2(f3 x))`.  The limitation of the analogy is that it is only
736 possible to represent computations in which the applications are
737 always right-branching, i.e., the computation `((f1 f2) f3) x` cannot
738 be directly represented.
739
740 One possibile development is that we could add a special symbol `'#'`,
741 and then the task would be to copy from the target `'S'` only back to
742 the closest `'#'`.  This would allow the task to simulate delimited
743 continuations with embedded prompts.
744
745 The reason the task is well-suited to the list zipper is in part
746 because the list monad has an intimate connection with continuations.
747 The following section explores this connection.  We'll return to the
748 list task after talking about generalized quantifiers below.
749
750
751 Rethinking the list monad
752 -------------------------
753
754 To construct a monad, the key element is to settle on a type
755 constructor, and the monad more or less naturally follows from that.
756 We'll remind you of some examples of how monads follow from the type
757 constructor in a moment.  This will involve some review of familair
758 material, but it's worth doing for two reasons: it will set up a
759 pattern for the new discussion further below, and it will tie together
760 some previously unconnected elements of the course (more specifically,
761 version 3 lists and monads).
762
763 For instance, take the **Reader Monad**.  Once we decide that the type
764 constructor is
765
766     type 'a reader = env -> 'a
767
768 then the choice of unit and bind is natural:
769
770     let r_unit (a : 'a) : 'a reader = fun (e : env) -> a
771
772 The reason this is a fairly natural choice is that because the type of
773 an `'a reader` is `env -> 'a` (by definition), the type of the
774 `r_unit` function is `'a -> env -> 'a`, which is an instance of the
775 type of the *K* combinator.  So it makes sense that *K* is the unit
776 for the reader monad.
777
778 Since the type of the `bind` operator is required to be
779
780     r_bind : ('a reader) -> ('a -> 'b reader) -> ('b reader)
781
782 We can reason our way to the traditional reader `bind` function as
783 follows. We start by declaring the types determined by the definition
784 of a bind operation:
785
786     let r_bind (u : 'a reader) (f : 'a -> 'b reader) : ('b reader) = ...
787
788 Now we have to open up the `u` box and get out the `'a` object in order to
789 feed it to `f`.  Since `u` is a function from environments to
790 objects of type `'a`, the way we open a box in this monad is
791 by applying it to an environment:
792
793 <pre>
794         ... f (u e) ...
795 </pre>
796
797 This subexpression types to `'b reader`, which is good.  The only
798 problem is that we made use of an environment `e` that we didn't already have,
799 so we must abstract over that variable to balance the books:
800
801         fun e -> f (u e) ...
802
803 [To preview the discussion of the Curry-Howard correspondence, what
804 we're doing here is constructing an intuitionistic proof of the type,
805 and using the Curry-Howard labeling of the proof as our bind term.]
806
807 This types to `env -> 'b reader`, but we want to end up with `env ->
808 'b`.  Once again, the easiest way to turn a `'b reader` into a `'b` is to apply it to an environment.  So we end up as follows:
809
810 <pre>
811 r_bind (u : 'a reader) (f : 'a -> 'b reader) : ('b reader) = f (u e) e         
812 </pre>
813
814 And we're done. This gives us a bind function of the right type. We can then check whether, in combination with the unit function we chose, it satisfies the monad laws, and behaves in the way we intend. And it does.
815
816 [The bind we cite here is a condensed version of the careful `let a = u e in ...`
817 constructions we provided in earlier lectures.  We use the condensed
818 version here in order to emphasize similarities of structure across
819 monads.]
820
821 The **State Monad** is similar.  Once we've decided to use the following type constructor:
822
823     type 'a state = store -> ('a, store)
824
825 Then our unit is naturally:
826
827     let s_unit (a : 'a) : ('a state) = fun (s : store) -> (a, s)
828
829 And we can reason our way to the bind function in a way similar to the reasoning given above. First, we need to apply `f` to the contents of the `u` box:
830
831     let s_bind (u : 'a state) (f : 'a -> 'b state) : 'b state = 
832                 ... f (...) ...
833
834 But unlocking the `u` box is a little more complicated.  As before, we
835 need to posit a state `s` that we can apply `u` to.  Once we do so,
836 however, we won't have an `'a`, we'll have a pair whose first element
837 is an `'a`.  So we have to unpack the pair:
838
839         ... let (a, s') = u s in ... (f a) ...
840
841 Abstracting over the `s` and adjusting the types gives the result:
842
843         let s_bind (u : 'a state) (f : 'a -> 'b state) : 'b state = 
844                 fun (s : store) -> let (a, s') = u s in f a s'
845
846 The **Option/Maybe Monad** doesn't follow the same pattern so closely, so we
847 won't pause to explore it here, though conceptually its unit and bind
848 follow just as naturally from its type constructor.
849
850 Our other familiar monad is the **List Monad**, which we were told
851 looks like this:
852
853     type 'a list = ['a];;
854     l_unit (a : 'a) = [a];;
855     l_bind u f = List.concat (List.map f u);;
856
857 Thinking through the list monad will take a little time, but doing so
858 will provide a connection with continuations.
859
860 Recall that `List.map` takes a function and a list and returns the
861 result to applying the function to the elements of the list:
862
863     List.map (fun i -> [i;i+1]) [1;2] ~~> [[1; 2]; [2; 3]]
864
865 and List.concat takes a list of lists and erases the embdded list
866 boundaries:
867
868     List.concat [[1; 2]; [2; 3]] ~~> [1; 2; 2; 3]
869
870 And sure enough, 
871
872     l_bind [1;2] (fun i -> [i, i+1]) ~~> [1; 2; 2; 3]
873
874 Now, why this unit, and why this bind?  Well, ideally a unit should
875 not throw away information, so we can rule out `fun x -> []` as an
876 ideal unit.  And units should not add more information than required,
877 so there's no obvious reason to prefer `fun x -> [x,x]`.  In other
878 words, `fun x -> [x]` is a reasonable choice for a unit.
879
880 As for bind, an `'a list` monadic object contains a lot of objects of
881 type `'a`, and we want to make use of each of them (rather than
882 arbitrarily throwing some of them away).  The only
883 thing we know for sure we can do with an object of type `'a` is apply
884 the function of type `'a -> 'a list` to them.  Once we've done so, we
885 have a collection of lists, one for each of the `'a`'s.  One
886 possibility is that we could gather them all up in a list, so that
887 `bind' [1;2] (fun i -> [i;i]) ~~> [[1;1];[2;2]]`.  But that restricts
888 the object returned by the second argument of `bind` to always be of
889 type `'b list list`.  We can elimiate that restriction by flattening
890 the list of lists into a single list: this is
891 just List.concat applied to the output of List.map.  So there is some logic to the
892 choice of unit and bind for the list monad.  
893
894 Yet we can still desire to go deeper, and see if the appropriate bind
895 behavior emerges from the types, as it did for the previously
896 considered monads.  But we can't do that if we leave the list type as
897 a primitive Ocaml type.  However, we know several ways of implementing
898 lists using just functions.  In what follows, we're going to use type
899 3 lists, the right fold implementation (though it's important and
900 intriguing to wonder how things would change if we used some other
901 strategy for implementating lists).  These were the lists that made
902 lists look like Church numerals with extra bits embdded in them:
903
904     empty list:                fun f z -> z
905     list with one element:     fun f z -> f 1 z
906     list with two elements:    fun f z -> f 2 (f 1 z)
907     list with three elements:  fun f z -> f 3 (f 2 (f 1 z))
908
909 and so on.  To save time, we'll let the OCaml interpreter infer the
910 principle types of these functions (rather than inferring what the
911 types should be ourselves):
912
913         # fun f z -> z;;
914         - : 'a -> 'b -> 'b = <fun>
915         # fun f z -> f 1 z;;
916         - : (int -> 'a -> 'b) -> 'a -> 'b = <fun>
917         # fun f z -> f 2 (f 1 z);;
918         - : (int -> 'a -> 'a) -> 'a -> 'a = <fun>
919         # fun f z -> f 3 (f 2 (f 1 z))
920         - : (int -> 'a -> 'a) -> 'a -> 'a = <fun>
921
922 We can see what the consistent, general principle types are at the end, so we
923 can stop. These types should remind you of the simply-typed lambda calculus
924 types for Church numerals (`(o -> o) -> o -> o`) with one extra type
925 thrown in, the type of the element a the head of the list
926 (in this case, an int).
927
928 So here's our type constructor for our hand-rolled lists:
929
930     type 'b list' = (int -> 'b -> 'b) -> 'b -> 'b
931
932 Generalizing to lists that contain any kind of element (not just
933 ints), we have
934
935     type ('a, 'b) list' = ('a -> 'b -> 'b) -> 'b -> 'b
936
937 So an `('a, 'b) list'` is a list containing elements of type `'a`,
938 where `'b` is the type of some part of the plumbing.  This is more
939 general than an ordinary OCaml list, but we'll see how to map them
940 into OCaml lists soon.  We don't need to fully grasp the role of the `'b`'s
941 in order to proceed to build a monad:
942
943     l'_unit (a : 'a) : ('a, 'b) list = fun a -> fun f z -> f a z
944
945 No problem.  Arriving at bind is a little more complicated, but
946 exactly the same principles apply, you just have to be careful and
947 systematic about it.
948
949     l'_bind (u : ('a,'b) list') (f : 'a -> ('c, 'd) list') : ('c, 'd) list'  = ...
950
951 Unpacking the types gives:
952
953     l'_bind (u : ('a -> 'b -> 'b) -> 'b -> 'b)
954             (f : 'a -> ('c -> 'd -> 'd) -> 'd -> 'd)
955             : ('c -> 'd -> 'd) -> 'd -> 'd = ...
956
957 Perhaps a bit intimiating.
958 But it's a rookie mistake to quail before complicated types. You should
959 be no more intimiated by complex types than by a linguistic tree with
960 deeply embedded branches: complex structure created by repeated
961 application of simple rules.
962
963 [This would be a good time to try to build your own term for the types
964 just given.  Doing so (or attempting to do so) will make the next
965 paragraph much easier to follow.]
966
967 As usual, we need to unpack the `u` box.  Examine the type of `u`.
968 This time, `u` will only deliver up its contents if we give `u` an
969 argument that is a function expecting an `'a` and a `'b`. `u` will 
970 fold that function over its type `'a` members, and that's how we'll get the `'a`s we need. Thus:
971
972         ... u (fun (a : 'a) (b : 'b) -> ... f a ... ) ...
973
974 In order for `u` to have the kind of argument it needs, the `... (f a) ...` has to evaluate to a result of type `'b`. The easiest way to do this is to collapse (or "unify") the types `'b` and `'d`, with the result that `f a` will have type `('c -> 'b -> 'b) -> 'b -> 'b`. Let's postulate an argument `k` of type `('c -> 'b -> 'b)` and supply it to `(f a)`:
975
976         ... u (fun (a : 'a) (b : 'b) -> ... f a k ... ) ...
977
978 Now we have an argument `b` of type `'b`, so we can supply that to `(f a) k`, getting a result of type `'b`, as we need:
979
980         ... u (fun (a : 'a) (b : 'b) -> f a k b) ...
981
982 Now, we've used a `k` that we pulled out of nowhere, so we need to abstract over it:
983
984         fun (k : 'c -> 'b -> 'b) -> u (fun (a : 'a) (b : 'b) -> f a k b)
985
986 This whole expression has type `('c -> 'b -> 'b) -> 'b -> 'b`, which is exactly the type of a `('c, 'b) list'`. So we can hypothesize that our bind is:
987
988     l'_bind (u : ('a -> 'b -> 'b) -> 'b -> 'b)
989             (f : 'a -> ('c -> 'b -> 'b) -> 'b -> 'b)
990             : ('c -> 'b -> 'b) -> 'b -> 'b = 
991       fun k -> u (fun a b -> f a k b)
992
993 That is a function of the right type for our bind, but to check whether it works, we have to verify it (with the unit we chose) against the monad laws, and reason whether it will have the right behavior.
994
995 Here's a way to persuade yourself that it will have the right behavior. First, it will be handy to eta-expand our `fun k -> u (fun a b -> f a k b)` to:
996
997       fun k z -> u (fun a b -> f a k b) z
998
999 Now let's think about what this does. It's a wrapper around `u`. In order to behave as the list which is the result of mapping `f` over each element of `u`, and then joining (`concat`ing) the results, this wrapper would have to accept arguments `k` and `z` and fold them in just the same way that the list which is the result of mapping `f` and then joining the results would fold them. Will it?
1000
1001 Suppose we have a list' whose contents are `[1; 2; 4; 8]`---that is, our list' will be `fun f z -> f 1 (f 2 (f 4 (f 8 z)))`. We call that list' `u`. Suppose we also have a function `f` that for each `int` we give it, gives back a list of the divisors of that `int` that are greater than 1. Intuitively, then, binding `u` to `f` should give us:
1002
1003         concat (map f u) =
1004         concat [[]; [2]; [2; 4]; [2; 4; 8]] =
1005         [2; 2; 4; 2; 4; 8]
1006
1007 Or rather, it should give us a list' version of that, which takes a function `k` and value `z` as arguments, and returns the right fold of `k` and `z` over those elements. What does our formula
1008
1009       fun k z -> u (fun a b -> f a k b) z
1010         
1011 do? Well, for each element `a` in `u`, it applies `f` to that `a`, getting one of the lists:
1012
1013         []
1014         [2]
1015         [2; 4]
1016         [2; 4; 8]
1017
1018 (or rather, their list' versions). Then it takes the accumulated result `b` of previous steps in the fold, and it folds `k` and `b` over the list generated by `f a`. The result of doing so is passed on to the next step as the accumulated result so far.
1019
1020 So if, for example, we let `k` be `+` and `z` be `0`, then the computation would proceed:
1021
1022         0 ==>
1023         right-fold + and 0 over [2; 4; 8] = 2+4+8+0 ==>
1024         right-fold + and 2+4+8+0 over [2; 4] = 2+4+2+4+8+0 ==>
1025         right-fold + and 2+4+2+4+8+0 over [2] = 2+2+4+2+4+8+0 ==>
1026         right-fold + and 2+2+4+2+4+8+0 over [] = 2+2+4+2+4+8+0
1027
1028 which indeed is the result of right-folding + and 0 over `[2; 2; 4; 2; 4; 8]`. If you trace through how this works, you should be able to persuade yourself that our formula:
1029
1030       fun k z -> u (fun a b -> f a k b) z
1031
1032 will deliver just the same folds, for arbitrary choices of `k` and `z` (with the right types), and arbitrary list's `u` and appropriately-typed `f`s, as
1033
1034         fun k z -> List.fold_right k (concat (map f u)) z
1035
1036 would.
1037
1038 For future reference, we might make two eta-reductions to our formula, so that we have instead:
1039
1040       let l'_bind = fun k -> u (fun a -> f a k);;
1041
1042 Let's make some more tests:
1043
1044
1045     l_bind [1;2] (fun i -> [i, i+1]) ~~> [1; 2; 2; 3]
1046
1047     l'_bind (fun f z -> f 1 (f 2 z)) 
1048             (fun i -> fun f z -> f i (f (i+1) z)) ~~> <fun>
1049
1050 Sigh.  OCaml won't show us our own list.  So we have to choose an `f`
1051 and a `z` that will turn our hand-crafted lists into standard OCaml
1052 lists, so that they will print out.
1053
1054         # let cons h t = h :: t;;  (* OCaml is stupid about :: *)
1055         # l'_bind (fun f z -> f 1 (f 2 z)) 
1056                           (fun i -> fun f z -> f i (f (i+1) z)) cons [];;
1057         - : int list = [1; 2; 2; 3]
1058
1059 Ta da!
1060
1061
1062 Montague's PTQ treatment of DPs as generalized quantifiers
1063 ----------------------------------------------------------
1064
1065 We've hinted that Montague's treatment of DPs as generalized
1066 quantifiers embodies the spirit of continuations (see de Groote 2001,
1067 Barker 2002 for lengthy discussion).  Let's see why.  
1068
1069 First, we'll need a type constructor.  As you probably know, 
1070 Montague replaced individual-denoting determiner phrases (with type `e`)
1071 with generalized quantifiers (with [extensional] type `(e -> t) -> t`.
1072 In particular, the denotation of a proper name like *John*, which
1073 might originally denote a object `j` of type `e`, came to denote a
1074 generalized quantifier `fun pred -> pred j` of type `(e -> t) -> t`.
1075 Let's write a general function that will map individuals into their
1076 corresponding generalized quantifier:
1077
1078    gqize (a : e) = fun (p : e -> t) -> p a
1079
1080 This function is what Partee 1987 calls LIFT, and it would be
1081 reasonable to use it here, but we will avoid that name, given that we
1082 use that word to refer to other functions.
1083
1084 This function wraps up an individual in a box.  That is to say,
1085 we are in the presence of a monad.  The type constructor, the unit and
1086 the bind follow naturally.  We've done this enough times that we won't
1087 belabor the construction of the bind function, the derivation is
1088 highly similar to the List monad just given:
1089
1090         type 'a continuation = ('a -> 'b) -> 'b
1091         c_unit (a : 'a) = fun (p : 'a -> 'b) -> p a
1092         c_bind (u : ('a -> 'b) -> 'b) (f : 'a -> ('c -> 'd) -> 'd) : ('c -> 'd) -> 'd =
1093           fun (k : 'a -> 'b) -> u (fun (a : 'a) -> f a k)
1094
1095 Note that `c_unit` is exactly the `gqize` function that Montague used
1096 to lift individuals into the continuation monad.
1097
1098 That last bit in `c_bind` looks familiar---we just saw something like
1099 it in the List monad.  How similar is it to the List monad?  Let's
1100 examine the type constructor and the terms from the list monad derived
1101 above:
1102
1103     type ('a, 'b) list' = ('a -> 'b -> 'b) -> 'b -> 'b
1104     l'_unit a = fun f -> f a                 
1105     l'_bind u f = fun k -> u (fun a -> f a k)
1106
1107 (We performed a sneaky but valid eta reduction in the unit term.)
1108
1109 The unit and the bind for the Montague continuation monad and the
1110 homemade List monad are the same terms!  In other words, the behavior
1111 of the List monad and the behavior of the continuations monad are
1112 parallel in a deep sense.
1113
1114 Have we really discovered that lists are secretly continuations?  Or
1115 have we merely found a way of simulating lists using list
1116 continuations?  Well, strictly speaking, what we have done is shown
1117 that one particular implementation of lists---the right fold
1118 implementation---gives rise to a continuation monad fairly naturally,
1119 and that this monad can reproduce the behavior of the standard list
1120 monad.  But what about other list implementations?  Do they give rise
1121 to monads that can be understood in terms of continuations?
1122
1123 Manipulating trees with monads
1124 ------------------------------
1125
1126 This topic develops an idea based on a detailed suggestion of Ken
1127 Shan's.  We'll build a series of functions that operate on trees,
1128 doing various things, including replacing leaves, counting nodes, and
1129 converting a tree to a list of leaves.  The end result will be an
1130 application for continuations.
1131
1132 From an engineering standpoint, we'll build a tree transformer that
1133 deals in monads.  We can modify the behavior of the system by swapping
1134 one monad for another.  We've already seen how adding a monad can add
1135 a layer of funtionality without disturbing the underlying system, for
1136 instance, in the way that the reader monad allowed us to add a layer
1137 of intensionality to an extensional grammar, but we have not yet seen
1138 the utility of replacing one monad with other.
1139
1140 First, we'll be needing a lot of trees during the remainder of the
1141 course.  Here's a type constructor for binary trees:
1142
1143     type 'a tree = Leaf of 'a | Node of ('a tree * 'a tree)
1144
1145 These are trees in which the internal nodes do not have labels.  [How
1146 would you adjust the type constructor to allow for labels on the
1147 internal nodes?]
1148
1149 We'll be using trees where the nodes are integers, e.g.,
1150
1151
1152 <pre>
1153 let t1 = Node ((Node ((Leaf 2), (Leaf 3))),
1154                (Node ((Leaf 5),(Node ((Leaf 7),
1155                                       (Leaf 11))))))
1156
1157     .
1158  ___|___
1159  |     |
1160  .     .
1161 _|__  _|__
1162 |  |  |  |
1163 2  3  5  .
1164         _|__
1165         |  |
1166         7  11
1167 </pre>
1168
1169 Our first task will be to replace each leaf with its double:
1170
1171 <pre>
1172 let rec treemap (newleaf:'a -> 'b) (t:'a tree):('b tree) =
1173   match t with Leaf x -> Leaf (newleaf x)
1174              | Node (l, r) -> Node ((treemap newleaf l),
1175                                     (treemap newleaf r));;
1176 </pre>
1177 `treemap` takes a function that transforms old leaves into new leaves, 
1178 and maps that function over all the leaves in the tree, leaving the
1179 structure of the tree unchanged.  For instance:
1180
1181 <pre>
1182 let double i = i + i;;
1183 treemap double t1;;
1184 - : int tree =
1185 Node (Node (Leaf 4, Leaf 6), Node (Leaf 10, Node (Leaf 14, Leaf 22)))
1186
1187     .
1188  ___|____
1189  |      |
1190  .      .
1191 _|__  __|__
1192 |  |  |   |
1193 4  6  10  .
1194         __|___
1195         |    |
1196         14   22
1197 </pre>
1198
1199 We could have built the doubling operation right into the `treemap`
1200 code.  However, because what to do to each leaf is a parameter, we can
1201 decide to do something else to the leaves without needing to rewrite
1202 `treemap`.  For instance, we can easily square each leaf instead by
1203 supplying the appropriate `int -> int` operation in place of `double`:
1204
1205 <pre>
1206 let square x = x * x;;
1207 treemap square t1;;
1208 - : int tree =ppp
1209 Node (Node (Leaf 4, Leaf 9), Node (Leaf 25, Node (Leaf 49, Leaf 121)))
1210 </pre>
1211
1212 Note that what `treemap` does is take some global, contextual
1213 information---what to do to each leaf---and supplies that information
1214 to each subpart of the computation.  In other words, `treemap` has the
1215 behavior of a reader monad.  Let's make that explicit.  
1216
1217 In general, we're on a journey of making our treemap function more and
1218 more flexible.  So the next step---combining the tree transducer with
1219 a reader monad---is to have the treemap function return a (monadized)
1220 tree that is ready to accept any `int->int` function and produce the
1221 updated tree.
1222
1223 \tree (. (. (f2) (f3))(. (f5) (.(f7)(f11))))
1224 <pre>
1225 \f    .
1226   ____|____
1227   |       |
1228   .       .
1229 __|__   __|__
1230 |   |   |   |
1231 f2  f3  f5  .
1232           __|___
1233           |    |
1234           f7  f11
1235 </pre>
1236
1237 That is, we want to transform the ordinary tree `t1` (of type `int
1238 tree`) into a reader object of type `(int->int)-> int tree`: something 
1239 that, when you apply it to an `int->int` function returns an `int
1240 tree` in which each leaf `x` has been replaced with `(f x)`.
1241
1242 With previous readers, we always knew which kind of environment to
1243 expect: either an assignment function (the original calculator
1244 simulation), a world (the intensionality monad), an integer (the
1245 Jacobson-inspired link monad), etc.  In this situation, it will be
1246 enough for now to expect that our reader will expect a function of
1247 type `int->int`.
1248
1249 <pre>
1250 type 'a reader = (int->int) -> 'a;;  (* mnemonic: e for environment *)
1251 let reader_unit (x:'a): 'a reader = fun _ -> x;;
1252 let reader_bind (u: 'a reader) (f:'a -> 'c reader):'c reader = fun e -> f (u e) e;;
1253 </pre>
1254
1255 It's easy to figure out how to turn an `int` into an `int reader`:
1256
1257 <pre>
1258 let int2int_reader (x:'a): 'b reader = fun (op:'a -> 'b) -> op x;;
1259 int2int_reader 2 (fun i -> i + i);;
1260 - : int = 4
1261 </pre>
1262
1263 But what do we do when the integers are scattered over the leaves of a
1264 tree?  A binary tree is not the kind of thing that we can apply a
1265 function of type `int->int` to.
1266
1267 <pre>
1268 let rec treemonadizer (f:'a -> 'b reader) (t:'a tree):('b tree) reader =
1269   match t with Leaf x -> reader_bind (f x) (fun x' -> reader_unit (Leaf x'))
1270              | Node (l, r) -> reader_bind (treemonadizer f l) (fun x ->
1271                                 reader_bind (treemonadizer f r) (fun y ->
1272                                   reader_unit (Node (x, y))));;
1273 </pre>
1274
1275 This function says: give me a function `f` that knows how to turn
1276 something of type `'a` into an `'b reader`, and I'll show you how to 
1277 turn an `'a tree` into an `'a tree reader`.  In more fanciful terms, 
1278 the `treemonadizer` function builds plumbing that connects all of the
1279 leaves of a tree into one connected monadic network; it threads the
1280 monad through the leaves.
1281
1282 <pre>
1283 # treemonadizer int2int_reader t1 (fun i -> i + i);;
1284 - : int tree =
1285 Node (Node (Leaf 4, Leaf 6), Node (Leaf 10, Node (Leaf 14, Leaf 22)))
1286 </pre>
1287
1288 Here, our environment is the doubling function (`fun i -> i + i`).  If
1289 we apply the very same `int tree reader` (namely, `treemonadizer
1290 int2int_reader t1`) to a different `int->int` function---say, the
1291 squaring function, `fun i -> i * i`---we get an entirely different
1292 result:
1293
1294 <pre>
1295 # treemonadizer int2int_reader t1 (fun i -> i * i);;
1296 - : int tree =
1297 Node (Node (Leaf 4, Leaf 9), Node (Leaf 25, Node (Leaf 49, Leaf 121)))
1298 </pre>
1299
1300 Now that we have a tree transducer that accepts a monad as a
1301 parameter, we can see what it would take to swap in a different monad.
1302 For instance, we can use a state monad to count the number of nodes in
1303 the tree.
1304
1305 <pre>
1306 type 'a state = int -> 'a * int;;
1307 let state_unit x i = (x, i+.5);;
1308 let state_bind u f i = let (a, i') = u i in f a (i'+.5);;
1309 </pre>
1310
1311 Gratifyingly, we can use the `treemonadizer` function without any
1312 modification whatsoever, except for replacing the (parametric) type
1313 `reader` with `state`:
1314
1315 <pre>
1316 let rec treemonadizer (f:'a -> 'b state) (t:'a tree):('b tree) state =
1317   match t with Leaf x -> state_bind (f x) (fun x' -> state_unit (Leaf x'))
1318              | Node (l, r) -> state_bind (treemonadizer f l) (fun x ->
1319                                 state_bind (treemonadizer f r) (fun y ->
1320                                   state_unit (Node (x, y))));;
1321 </pre>
1322
1323 Then we can count the number of nodes in the tree:
1324
1325 <pre>
1326 # treemonadizer state_unit t1 0;;
1327 - : int tree * int =
1328 (Node (Node (Leaf 2, Leaf 3), Node (Leaf 5, Node (Leaf 7, Leaf 11))), 13)
1329
1330     .
1331  ___|___
1332  |     |
1333  .     .
1334 _|__  _|__
1335 |  |  |  |
1336 2  3  5  .
1337         _|__
1338         |  |
1339         7  11
1340 </pre>
1341
1342 Notice that we've counted each internal node twice---it's a good
1343 exercise to adjust the code to count each node once.
1344
1345 One more revealing example before getting down to business: replacing
1346 `state` everywhere in `treemonadizer` with `list` gives us
1347
1348 <pre>
1349 # treemonadizer (fun x -> [ [x; square x] ]) t1;;
1350 - : int list tree list =
1351 [Node
1352   (Node (Leaf [2; 4], Leaf [3; 9]),
1353    Node (Leaf [5; 25], Node (Leaf [7; 49], Leaf [11; 121])))]
1354 </pre>
1355
1356 Unlike the previous cases, instead of turning a tree into a function
1357 from some input to a result, this transformer replaces each `int` with
1358 a list of `int`'s.
1359
1360 Now for the main point.  What if we wanted to convert a tree to a list
1361 of leaves?  
1362
1363 <pre>
1364 type ('a, 'r) continuation = ('a -> 'r) -> 'r;;
1365 let continuation_unit x c = c x;;
1366 let continuation_bind u f c = u (fun a -> f a c);;
1367
1368 let rec treemonadizer (f:'a -> ('b, 'r) continuation) (t:'a tree):(('b tree), 'r) continuation =
1369   match t with Leaf x -> continuation_bind (f x) (fun x' -> continuation_unit (Leaf x'))
1370              | Node (l, r) -> continuation_bind (treemonadizer f l) (fun x ->
1371                                 continuation_bind (treemonadizer f r) (fun y ->
1372                                   continuation_unit (Node (x, y))));;
1373 </pre>
1374
1375 We use the continuation monad described above, and insert the
1376 `continuation` type in the appropriate place in the `treemonadizer` code.
1377 We then compute:
1378
1379 <pre>
1380 # treemonadizer (fun a c -> a :: (c a)) t1 (fun t -> []);;
1381 - : int list = [2; 3; 5; 7; 11]
1382 </pre>
1383
1384 We have found a way of collapsing a tree into a list of its leaves.
1385
1386 The continuation monad is amazingly flexible; we can use it to
1387 simulate some of the computations performed above.  To see how, first
1388 note that an interestingly uninteresting thing happens if we use the
1389 continuation unit as our first argument to `treemonadizer`, and then
1390 apply the result to the identity function:
1391
1392 <pre>
1393 # treemonadizer continuation_unit t1 (fun x -> x);;
1394 - : int tree =
1395 Node (Node (Leaf 2, Leaf 3), Node (Leaf 5, Node (Leaf 7, Leaf 11)))
1396 </pre>
1397
1398 That is, nothing happens.  But we can begin to substitute more
1399 interesting functions for the first argument of `treemonadizer`:
1400
1401 <pre>
1402 (* Simulating the tree reader: distributing a operation over the leaves *)
1403 # treemonadizer (fun a c -> c (square a)) t1 (fun x -> x);;
1404 - : int tree =
1405 Node (Node (Leaf 4, Leaf 9), Node (Leaf 25, Node (Leaf 49, Leaf 121)))
1406
1407 (* Simulating the int list tree list *)
1408 # treemonadizer (fun a c -> c [a; square a]) t1 (fun x -> x);;
1409 - : int list tree =
1410 Node
1411  (Node (Leaf [2; 4], Leaf [3; 9]),
1412   Node (Leaf [5; 25], Node (Leaf [7; 49], Leaf [11; 121])))
1413
1414 (* Counting leaves *)
1415 # treemonadizer (fun a c -> 1 + c a) t1 (fun x -> 0);;
1416 - : int = 5
1417 </pre>
1418
1419 We could simulate the tree state example too, but it would require
1420 generalizing the type of the continuation monad to 
1421
1422     type ('a -> 'b -> 'c) continuation = ('a -> 'b) -> 'c;;
1423
1424 The binary tree monad
1425 ---------------------
1426
1427 Of course, by now you may have realized that we have discovered a new
1428 monad, the binary tree monad:
1429
1430 <pre>
1431 type 'a tree = Leaf of 'a | Node of ('a tree) * ('a tree);;
1432 let tree_unit (x:'a) = Leaf x;;
1433 let rec tree_bind (u:'a tree) (f:'a -> 'b tree):'b tree = 
1434   match u with Leaf x -> f x 
1435              | Node (l, r) -> Node ((tree_bind l f), (tree_bind r f));;
1436 </pre>
1437
1438 For once, let's check the Monad laws.  The left identity law is easy:
1439
1440     Left identity: bind (unit a) f = bind (Leaf a) f = fa
1441
1442 To check the other two laws, we need to make the following
1443 observation: it is easy to prove based on `tree_bind` by a simple
1444 induction on the structure of the first argument that the tree
1445 resulting from `bind u f` is a tree with the same strucure as `u`,
1446 except that each leaf `a` has been replaced with `fa`:
1447
1448 \tree (. (fa1) (. (. (. (fa2)(fa3)) (fa4)) (fa5)))
1449 <pre>
1450                 .                         .       
1451               __|__                     __|__   
1452               |   |                     |   |   
1453               a1  .                    fa1  .   
1454                  _|__                     __|__ 
1455                  |  |                     |   | 
1456                  .  a5                    .  fa5
1457    bind         _|__       f   =        __|__   
1458                 |  |                    |   |   
1459                 .  a4                   .  fa4  
1460               __|__                   __|___   
1461               |   |                   |    |   
1462               a2  a3                 fa2  fa3         
1463 </pre>   
1464
1465 Given this equivalence, the right identity law
1466
1467     Right identity: bind u unit = u
1468
1469 falls out once we realize that
1470
1471     bind (Leaf a) unit = unit a = Leaf a
1472
1473 As for the associative law,
1474
1475     Associativity: bind (bind u f) g = bind u (\a. bind (fa) g)
1476
1477 we'll give an example that will show how an inductive proof would
1478 proceed.  Let `f a = Node (Leaf a, Leaf a)`.  Then
1479
1480 \tree (. (. (. (. (a1)(a2)))))
1481 \tree (. (. (. (. (a1) (a1)) (. (a1) (a1)))  ))
1482 <pre>
1483                                            .
1484                                        ____|____
1485           .               .            |       |
1486 bind    __|__   f  =    __|_    =      .       .
1487         |   |           |   |        __|__   __|__
1488         a1  a2         fa1 fa2       |   |   |   |
1489                                      a1  a1  a1  a1  
1490 </pre>
1491
1492 Now when we bind this tree to `g`, we get
1493
1494 <pre>
1495            .
1496        ____|____
1497        |       |
1498        .       .
1499      __|__   __|__
1500      |   |   |   |
1501     ga1 ga1 ga1 ga1  
1502 </pre>
1503
1504 At this point, it should be easy to convince yourself that
1505 using the recipe on the right hand side of the associative law will
1506 built the exact same final tree.
1507
1508 So binary trees are a monad.
1509
1510 Haskell combines this monad with the Option monad to provide a monad
1511 called a
1512 [SearchTree](http://hackage.haskell.org/packages/archive/tree-monad/0.2.1/doc/html/src/Control-Monad-SearchTree.html#SearchTree)
1513 that is intended to 
1514 represent non-deterministic computations as a tree.
1515
1516 ##[[List Monad as Continuation Monad]]##
1517
1518 ##[[Manipulating Trees with Monads]]##
1519