rename topics/week13_control_operators.mdwn to topics/week13_native_continuation_oper...
[lambda.git] / topics / week13_coroutines_exceptions_and_aborts.mdwn
1 [[!toc]]
2
3 ## Coroutines ##
4
5 Recall [[the recent homework assignment|/exercises/assignment12]] where you solved the same-fringe problem with a `make_fringe_enumerator` function, or in the Scheme version using streams instead of zippers, with a `lazy-flatten` function.
6
7 The technique illustrated in those solutions is a powerful and important one. It's an example of what's sometimes called **cooperative threading**. A "thread" is a subprogram that the main computation spawns off. Threads are called "cooperative" when the code of the main computation and the thread fixes when control passes back and forth between them. (When the code doesn't control this---for example, it's determined by the operating system or the hardware in ways that the programmer can't predict---that's called "preemptive threading.") Cooperative threads are also sometimes called *coroutines* or *generators*.
8
9 With cooperative threads, one typically yields control to the thread, and then back again to the main program, multiple times. Here's the pattern in which that happens in our `same_fringe` function:
10
11     main program        next1 thread        next2 thread
12     ------------        ------------        ------------
13     start next1
14     (paused)            starting
15     (paused)            calculate first leaf
16     (paused)            <--- return it
17     start next2         (paused)            starting
18     (paused)            (paused)            calculate first leaf
19     (paused)            (paused)            <-- return it
20     compare leaves      (paused)            (paused)
21     call loop again     (paused)            (paused)
22     call next1 again    (paused)            (paused)
23     (paused)            calculate next leaf (paused)
24     (paused)            <-- return it       (paused)
25     ... and so on ...
26
27 If you want to read more about these kinds of threads, here are some links:
28
29 <!-- *   [[!wikipedia Computer_multitasking]]
30 *   [[!wikipedia Thread_(computer_science)]] -->
31
32 *   [[!wikipedia Coroutine]]
33 *   [[!wikipedia Iterator]]
34 *   [[!wikipedia Generator_(computer_science)]]
35 *   [[!wikipedia Fiber_(computer_science)]]
36 <!-- *   [[!wikipedia Green_threads]]
37 *   [[!wikipedia Protothreads]] -->
38
39 The way we built cooperative threads using `make_fringe_enumerator` crucially relied on two heavyweight tools. First, it relied on our having a data structure (the tree zipper) capable of being a static snapshot of where we left off in the tree whose fringe we're enumerating. Second, it either required us to manually save and restore the thread's snapshotted state (a tree zipper); or else we had to use a mutable reference cell to save and restore that state for us. Using the saved state, the next invocation of the `next_leaf` function could start up again where the previous invocation left off.
40
41 It's possible to build cooperative threads without using those tools, however. Already our [[solution using streams|/exercises/assignment12#streams2]] uses neither zippers nor any mutation. Instead it saves the thread's state in the code of explicitly-created thunks, and resumes the thread by forcing the thunk.
42
43 Some languages have a native syntax for coroutines. Here's how we'd write the same-fringe solution using native coroutines in the language Lua:
44
45
46     > function fringe_enumerator (tree)
47         if tree.leaf then
48             coroutine.yield (tree.leaf)
49         else
50             fringe_enumerator (tree.left)
51             fringe_enumerator (tree.right)
52         end
53     end
54
55     > function same_fringe (tree1, tree2)
56       -- coroutine.wrap turns a function into a coroutine
57         local next1 = coroutine.wrap (fringe_enumerator)
58         local next2 = coroutine.wrap (fringe_enumerator)
59         local function loop (leaf1, leaf2)
60             if leaf1 or leaf2 then
61                 return leaf1 == leaf2 and loop( next1(), next2() )
62             elseif not leaf1 and not leaf2 then
63                 return true
64             else
65                 return false
66             end
67         end
68         return loop (next1(tree1), next2(tree2))
69     end
70
71     > return same_fringe ( {leaf=1}, {leaf=2} )
72     false
73
74     > return same_fringe ( {leaf=1}, {leaf=1} )
75     true
76
77     > return same_fringe ( {left = {leaf=1}, right = {left = {leaf=2}, right = {leaf=3}}},
78         {left = {left = {leaf=1}, right = {leaf=2}}, right = {leaf=3}} )
79     true
80
81 We're going to think about the underlying principles to this execution pattern, and instead learn how to implement it from scratch---without necessarily having zippers or dedicated native syntax to rely on.
82
83
84 ##Exceptions and Aborts##
85
86 To get a better understanding of how that execution pattern works, we'll add yet a second execution pattern to our plate, and then think about what they have in common.
87
88 While writing OCaml code, you've probably come across errors. In fact, you've probably come across errors of several sorts. One sort of error comes about when you've got syntax errors and the OCaml interpreter isn't even able to parse your code. A second sort of error is type errors, as in:
89
90     # let lst = [1; 2] in
91       "a" :: lst;;
92              ---
93     Error: This expression has type int list
94            but an expression was expected of type string list
95
96 Type errors are also detected and reported before OCaml attempts to execute or evaluate your code. But you may also have encountered a third kind of error, that arises while your program is running. For example:
97
98     # 1/0;;
99     Exception: Division_by_zero.
100     # List.nth [1;2] 10;;
101     Exception: Failure "nth".
102
103 These "Exceptions" are **run-time errors**. OCaml will automatically detect some of them, like when you attempt to divide by zero. Other exceptions are manually *raised* by code. For instance, here is the standard implementation of `List.nth`:
104
105     let nth l n =
106       if n < 0 then invalid_arg "List.nth" else
107       let rec nth_aux l n =
108         match l with
109         | [] -> failwith "nth"
110         | a::l -> if n = 0 then a else nth_aux l (n-1)
111       in nth_aux l n
112
113 (The Juli8 version of `List.nth` only differs in sometimes raising a different error.) Notice the two clauses `invalid_arg "List.nth"` and `failwith "nth"`. These are two helper functions which are shorthand for:
114
115     raise (Invalid_argument "List.nth");;
116     raise (Failure "nth");;
117
118 where `Invalid_argument "List.nth"` constructs a value of type `exn`, and so too `Failure "nth"`. When you have some value `bad` of type `exn` and evaluate the expression:
119
120     raise bad
121
122 the effect is for the program to immediately stop without evaluating any further code:
123
124     # let xcell = ref 0;;
125     val xcell : int ref = {contents = 0}
126     # let bad = Failure "test"
127       in let _ = raise bad
128       in xcell := 1;;
129     Exception: Failure "test".
130     # !xcell;;
131     - : int = 0
132
133 Notice that the line `xcell := 1` was never evaluated, so the contents of `xcell` are still `0`.
134
135 I said when you evaluate the expression:
136
137     raise bad
138
139 the effect is for the program to immediately stop. That's not exactly true. You can also programmatically arrange to *catch* errors, without the program necessarily stopping. In OCaml we do that with a `try ... with PATTERN -> ...` construct, analogous to the `match ... with PATTERN -> ...` construct. (In OCaml 4.02 and higher, there is also a more inclusive construct that combines these, `match ... with PATTERN -> ... | exception PATTERN -> ...`.)
140
141     # let foo x =
142         try
143             (if x = 1 then 10
144             else if x = 2 then raise (Failure "two")
145             else raise (Failure "three")
146             ) + 100
147         with Failure "two" -> 20
148         ;;
149     val foo : int -> int = <fun>
150     # foo 1;;
151     - : int = 110
152     # foo 2;;
153     - : int = 20
154     # foo 3;;
155     Exception: Failure "three".
156
157 Notice what happens here. If we call `foo 1`, then the code between `try` and `with` evaluates to `110`, with no exceptions being raised. That then is what the entire `try ... with ...` block evaluates to; and so too what `foo 1` evaluates to. If we call `foo 2`, then the code between `try` and `with` raises an exception `Failure "two"`. The pattern in the `with` clause matches that exception, so we get instead `20`. If we call `foo 3`, we again raise an exception. This exception isn't matched by the `with` block, so it percolates up to the top of the program, and then the program immediately stops.
158
159 So what I should have said is that when you evaluate the expression:
160
161     raise bad
162
163 *and that exception is never caught*, then the effect is for the program to immediately stop.
164
165 **Trivia**: what's the type of the `raise (Failure "two")` in:
166
167     if x = 1 then 10
168     else raise (Failure "two")
169
170 What's its type in:
171
172     if x = 1 then "ten"
173     else raise (Failure "two")
174
175 So now what do you expect the type of this to be:
176
177     fun x -> raise (Failure "two")
178
179 How about this:
180
181     (fun x -> raise (Failure "two") : 'a -> 'a)
182
183 Remind you of anything we discussed earlier? (At one point earlier in term we were asking whether you could come up with any functions of type `'a -> 'a` other than the identity function.)
184
185 **/Trivia.**
186
187 Of course, it's possible to handle errors in other ways too. There's no reason why the implementation of `List.nth` *had* to raise an exception. They might instead have returned `Some a` when the list had an nth member `a`, and `None` when it does not. But it's pedagogically useful for us to think about the exception-raising pattern now.
188
189 When an exception is raised, it percolates up through the code that called it, until it finds a surrounding `try ... with ...` that matches it. That might not be the first `try ... with ...` that it encounters. For example:
190
191     # try
192         try
193             (raise (Failure "blah")
194             ) + 100
195         with Failure "fooey" -> 10
196       with Failure "blah" -> 20;;
197     - : int = 20
198
199 The matching `try ... with ...` block need not *lexically surround* the site where the error was raised:
200
201     # let foo b x =
202         try
203             (b x
204             ) + 100
205         with Failure "blah" -> 20
206     in let bar x =
207         raise (Failure "blah")
208     in foo bar 0;;
209     - : int = 20
210
211 Here we call `foo bar 0`, and `foo` in turn calls `bar 0`, and `bar` raises the exception. Since there's no matching `try ... with ...` block in `bar`, we percolate back up the history of who called that function, and we find a matching `try ... with ...` block in `foo`. This catches the error and so then the `try ... with ...` block in `foo` (the code that called `bar` in the first place) will evaluate to `20`.
212
213 OK, now this exception-handling apparatus does exemplify the second execution pattern we want to focus on. But it may bring it into clearer focus if we **simplify the pattern** even more. Imagine we could write code like this instead:
214
215     # let foo x =
216         try begin
217             (if x = 1 then 10
218             else abort 20
219             ) + 100
220         end
221         ;;
222
223 then if we called `foo 1`, we'd get the result `110`. If we called `foo 2`, on the other hand, we'd get `20` (note, not `120`). This exemplifies the same interesting "jump out of this part of the code" behavior that the `try ... raise ... with ...` code does, but without the details of matching which exception was raised, and handling the exception to produce a new result.
224
225 Many programming languages have this simplified exceution pattern, either instead of or alongside a `try ... with ...`-like pattern. In Lua and many other languages, `abort` is instead called `return`. In Lua, the preceding example would be written:
226
227     > function foo(x)
228         local value
229         if (x == 1) then
230             value = 10
231         else
232             return 20         -- abort early
233         end
234         return value + 100    -- in a language like Scheme, you could omit the `return` here
235                               -- but in Lua, a function's normal result must always be explicitly `return`ed
236     end
237
238     > return foo(1)
239     110
240
241     > return foo(2)
242     20
243
244 Okay, so that's our second execution pattern.
245
246 ##What do these have in common?##
247
248 In both of these patterns --- coroutines and exceptions/aborts --- we need to have some way to take a snapshot of where we are in the evaluation of a complex piece of code, so that we might later resume execution at that point. In the coroutine example, the two threads need to have a snapshot of where they were in the enumeration of their tree's leaves. In the abort example, we need to have a snapshot of where to pick up again if some embedded piece of code aborts. Sometimes we might distill that snapshot into a data structure like a zipper. But we might not always know how to do so; and learning how to think about these snapshots without the help of zippers will help us see patterns and similarities we might otherwise miss.
249
250 A more general way to think about these snapshots is to think of the code we're taking a snapshot of as a *function.* For example, in this code:
251
252     let foo x = (* same definition as before *)
253         try begin
254             (if x = 1 then 10
255             else abort 20
256             ) + 100
257         end
258     in (foo 2) + 1000;; (* this line is new *)
259
260 we can imagine a box:
261
262     let foo x =
263     +---try begin----------------+
264     |       (if x = 1 then 10    |
265     |       else abort 20        |
266     |       ) + 100              |
267     +---end----------------------+
268     in (foo 2) + 1000;;
269
270 and as we're about to enter the box, we want to take a snapshot of the code *outside* the box. If we decide to abort, we'd be aborting *to* that snapshotted code.
271
272
273 What would a "snapshot of the code outside the box" look like? Well, let's rearrange the code somewhat. It should be equivalent to this:
274
275     let x = 2
276     in let foo_result =
277     +---try begin----------------+
278     |       (if x = 1 then 10    |
279     |       else abort 20        |
280     |       ) + 100              |
281     +---end----------------------+
282     in (foo_result) + 1000;;
283
284 and we can think of the code starting with `let foo_result = ...` as a function, with the box being its parameter, like this:
285
286     let foo_result = < >
287     in foo_result + 100
288
289 or, spelling out the gap `< >` as a bound variable:
290
291     fun box ->
292         let foo_result = box
293         in (foo_result) + 1000
294
295 That function is our "snapshot". Normally what happens is that code *inside* the box delivers up a value, and that value gets supplied as an argument to the snapshot-function just described. That is, our code is essentially working like this:
296
297     let x = 2
298     in let snapshot = fun box ->
299         let foo_result = box
300         in (foo_result) + 1000
301     in let foo_applied_to_x =
302         (if x = 1 then 10
303         else ... (* we'll come back to this part *)
304         ) + 100
305     in shapshot foo_applied_to_x;;
306
307 But now how should the `abort 20` part, that we ellided here, work? What should happen when we try to evaluate that?
308
309 Well, that's when we use the snapshot code in an unusual way. If we encounter an `abort 20`, we should abandon the code we're currently executing, and instead just supply `20` to the snapshot we saved when we entered the box. That is, something like this:
310
311     let x = 2
312     in let snapshot = fun box ->
313         let foo_result = box
314         in (foo_result) + 1000
315     in let foo_applied_to_x =
316         (if x = 1 then 10
317         else snapshot 20
318         ) + 100
319     in shapshot foo_applied_to_x;;
320
321 Except that isn't quite right, yet---in this fragment, after the `snapshot 20` code is finished, we'd pick up again inside `let foo_applied_to_x = (...) + 100 in snapshot foo_applied_to_x`. That's not what we want. We don't want to pick up again there. We want instead to do this:
322
323     let x = 2
324     in let snapshot = fun box ->
325         let foo_result = box
326         in (foo_result) + 1000
327     in let foo_applied_to_x =
328         (if x = 1 then 10
329         else snapshot 20 THEN STOP
330         ) + 100
331     in shapshot foo_applied_to_x;;
332
333 We can get that by some further rearranging of the code:
334
335     let x = 2
336     in let snapshot = fun box ->
337         let foo_result = box
338         in (foo_result) + 1000
339     in let continue_foo_normally = fun from_value ->
340         let value = from_value + 100
341         in snapshot value
342     in (* start of foo_applied_to_x *)
343         if x = 1 then continue_foo_normally 10
344         else snapshot 20;;
345
346 And this is indeed what is happening, at a fundamental level, when you use an expression like `abort 20`. Here is the original code for comparison:
347
348     let foo x =
349     +---try begin----------------+
350     |       (if x = 1 then 10    |
351     |       else abort 20        |
352     |       ) + 100              |
353     +---end----------------------+
354     in (foo 2) + 1000;;
355
356
357
358 A similar kind of "snapshotting" lets coroutines keep track of where they left off, so that they can start up again at that same place.
359
360 ##Continuations, finally##
361
362 These snapshots are called **continuations** because they represent how the computation will "continue" once some target code (in our example, the code in the box) delivers up a value.
363
364 You can think of them as functions that represent "how the rest of the computation proposes to continue." Except that, once we're able to get our hands on those functions, we can do exotic and unwholesome things with them. Like use them to suspend and resume a thread. Or to abort from deep inside a sub-computation: one function might pass the command to abort *it* to a subfunction, so that the subfunction has the power to jump directly to the outside caller. Or a function might *return* its continuation function to the outside caller, giving *the outside caller* the ability to "abort" the function (the function that has already returned its value---so what should happen then?) Or we may call the same continuation function *multiple times* (what should happen then?). All of these weird and wonderful possibilities await us.
365
366 The key idea behind working with continuations is that we're *inverting control*. In the fragment above, the code `(if x = 1 then ... else snapshot 20) + 100`---which is written as if it were to supply a value to the outside context that we snapshotted---itself *makes non-trivial use of* that snapshot. So it has to be able to refer to that snapshot; the snapshot has to somehow be available to our inside-the-box code as an *argument* or bound variable. That is: the code that is *written* like it's supplying an argument to the outside context is instead *getting that context as its own argument*. He who is written as value-supplying slave is instead become the outer context's master.
367
368 In fact you've already seen this several times this semester---recall how in our implementation of pairs in the untyped lambda-calculus, the handler who wanted to use the pair's components had *in the first place to be supplied to the pair as an argument*. So the exotica from the end of the seminar was already on the scene in some of our earliest steps. Recall also what we did with our [[abortable list traversals|/topics/week12_abortable_traversals]].
369
370 This inversion of control should also remind you of Montague's treatment of determiner phrases in ["The Proper Treatment of Quantification in Ordinary English"](http://www.blackwellpublishing.com/content/BPL_Images/Content_store/Sample_chapter/0631215417%5CPortner.pdf) (PTQ).
371
372 A naive semantics for atomic sentences will say the subject term is of type `e`, and the predicate of type `e -> t`, and that the subject provides an argument to the function expressed by the predicate.
373
374 Monatague proposed we instead take the subject term to be of type `(e -> t) -> t`, and that now it'd be the predicate (still of type `e -> t`) that provides an argument to the function expressed by the subject.
375
376 If all the subject did then was supply an `e` to the `e -> t` it receives as an argument, we wouldn't have gained anything we weren't already able to do. But of course, there are other things the subject can do with the `e -> t` it receives as an argument. For instance, it can check whether anything in the domain satisfies that `e -> t`; or whether most things do; and so on.
377
378 This inversion of who is the argument and who is the function receiving the argument is paradigmatic of working with continuations.
379
380 Continuations come in many varieties. There are **undelimited continuations**, expressed in Scheme via `(call/cc (lambda (k) ...))` or the shorthand `(let/cc k ...)`. (`call/cc` is itself shorthand for `call-with-current-continuation`.) These capture "the entire rest of the computation." There are also **delimited continuations**, expressed in Scheme via `(reset ... (shift k ...) ...)` or `(prompt ... (control k ...) ...)` or any of several other operations. There are subtle differences between those that we won't be exploring in the seminar. Ken Shan has done terrific work exploring the relations of these operations to each other.
381
382 When working with continuations, it's easiest in the first place to write them out explicitly, the way that we explicitly wrote out the `snapshot` continuation when we transformed this:
383
384     let foo x =
385     +---try begin----------------+
386     |       (if x = 1 then 10    |
387     |       else abort 20        |
388     |       ) + 100              |
389     +---end----------------------+
390     in (foo 2) + 1000;;
391
392 into this:
393
394     let x = 2
395     in let snapshot = fun box ->
396         let foo_result = box
397         in (foo_result) + 1000
398     in let continue_foo_normally = fun from_value ->
399         let value = from_value + 100
400         in snapshot value
401     in (* start of foo_applied_to_x *)
402         if x = 1 then continue_foo_normally 10
403         else snapshot 20;;
404
405 Code written in the latter form is said to be written in **explicit continuation-passing style** or CPS. Later we'll talk about algorithms that mechanically convert an entire program into CPS.
406
407 There are also different kinds of "syntactic sugar" we can use to hide the continuation plumbing. Of course we'll be talking about how to manipulate continuations **with a Continuation monad.** We'll also talk about a style of working with continuations where they're **mostly implicit**, but special syntax allows us to distill the implicit continuation into a first-class value (the `k` in `(let/cc k ...)` and `(shift k ...)`. For reference, here's how the preceding code looks, using Scheme's `abort` or `shift` operators:
408
409     #lang racket
410     (require racket/control)
411
412     (let ([foo (lambda (x)
413                  (reset
414                   (+
415                     (if (eqv? x 1) 10 (abort 20))
416                     100)))])
417       (+ (foo 2) 1000))
418
419     (let ([foo (lambda (x)
420                  (reset
421                   (+
422                     (shift k
423                       (if (eqv? x 1) (k 10) 20))
424                     100)))])
425       (+ (foo 1) 1000))
426
427
428 <!--
429 # #require "delimcc";;
430 # open Delimcc;;
431 # let reset body = let p = new_prompt () in push_prompt p (body p);;
432 # let test_cps x =
433       let snapshot = fun box ->
434           let foo_result = box
435           in (foo_result) + 1000
436       in let continue_foo_normally = fun from_value ->
437           let value = from_value + 100
438           in snapshot value
439       in if x = 1 then continue_foo_normally 10
440       else snapshot 20;;
441
442 # let test_shift x =
443     let foo x = reset(fun p () ->
444         (shift p (fun k ->
445             if x = 1 then k 10 else 20)
446         ) + 100)
447     in foo z + 1000;;
448
449 # test_cps 1;;
450 - : int = 1110
451 # test_shift 1;;
452 - : int = 1110
453 # test_cps 2;;
454 - : int = 1020
455 # test_shift 2;;
456 - : int = 1020
457 -->
458
459
460 Various of the tools we've been introducing over the past weeks are inter-related. We saw coroutines implemented first with zippers; here we've talked in the abstract about their being implemented with continuations. Oleg says that "Zipper can be viewed as a delimited continuation reified as a data structure." Ken expresses the same idea in terms of a zipper being a "defunctionalized" continuation---that is, take something implemented as a function (a continuation) and implement the same thing as an inert data structure (a zipper).
461
462 Mutation, delimited continuations, and monads can also be defined in terms of each other in various ways. We find these connections fascinating but the seminar won't be able to explore them very far.
463
464 We recommend reading [the Yet Another Haskell Tutorial on Continuation Passing Style](http://en.wikibooks.org/wiki/Haskell/YAHT/Type_basics#Continuation_Passing_Style)---though the target language is Haskell, this discussion is especially close to material we're discussing in the seminar.
465