1 Combinators and Combinatory Logic
2 =================================
4 Combinatory logic is of interest here in part because it provides a
5 useful computational system that is equivalent to the Lambda Calculus,
6 but different from it. In addition, Combinatory Logic has a number of
7 applications in natural language semantics.  Exploring Combinatory
8 Logic will involve defining a notion of reduction different from the
9 one we have been using for the Lambda Calculus.  This will provide us
10 with a second parallel example when we're thinking through
11 topics such as evaluation strategies and recursion.
13 Lambda expressions that have no free variables are known as **combinators**. Here are some common ones:
15 >   **I** is defined to be `\x x`
17 >   **K** is defined to be `\x y. x`. That is, it throws away its
18 second argument. So `K x` is a constant function from any
19 (further) argument to `x`. ("K" for "constant".) Compare `K`
20 to our definition of `true`.
22 >   **S** is defined to be `\f g x. f x (g x)`.  This is a more
23 complicated operation, but is extremely versatile and useful
24 (see below): it copies its third argument and distributes it
25 over the first two arguments.
27 >   **fst** was our function for extracting the first element of an ordered pair: `\a b. a`. Compare this to `K` and `true` as well.
29 >   **snd** was our function for extracting the second element of an ordered pair: `\a b. b`. Compare this to our definition of `false`.
31 >   **B** is defined to be: `\f g x. f (g x)`. (So `B f g` is the composition `\x. f (g x)` of `f` and `g`.)
33 >   **C** is defined to be: `\f x y. f y x`. (So `C f` is a function like `f` except it expects its first two (curried) arguments in flipped order.)
35 >   **T** is defined to be: `\x y. y x`. (So `C` and `T` both reorder arguments, just in different ways.)
37 >   **W** is defined to be: `\f x . f x x`. (So `W f` accepts one argument and gives it to `f` twice. What is the meaning of `W multiply`?) <!-- \x. multiply x x === \x. square x -->
39 >   **ω** (that is, lower-case omega) is defined to be: `\x. x x`. Sometimes this combinator is called **M**. It and `W` both duplicate arguments, just in different ways. <!-- L is \uv.u(vv) -->
42 It's possible to build a logical system equally powerful as the Lambda
43 Calculus (and readily intertranslatable with it) using just
44 combinators, considered as *primitive operations*. (That is, we
45 refrain from defining them in terms of lambda expressions, as we did
46 above.)  Such a language doesn't have any variables in it: not just no
47 free variables, but no variables (or "bound positions") at all.
49 One can do that with a very spare set of basic combinators. These days
50 the standard base is just three combinators: `S`, `K`, and `I`.
51 (Though we'll see shortly that the behavior of `I` can be exactly
52 simulated by a combination of `S`'s and `K`'s.)  But it's possible to be
53 even more minimalistic, and get by with only a single combinator (see
54 links below for details). (And there are different single-combinator
55 bases you can choose.) <!-- Schoenfinkel already discovered one of them;
56 did Chris discover his? -->
58 There are some well-known linguistic applications of Combinatory
59 Logic, due to Anna Szabolcsi, Mark Steedman, and Pauline Jacobson.
60 They claim that natural language semantics is a combinatory system: that every
61 natural language denotation is a combinator.
63 For instance, Szabolcsi 1987 argues that reflexive pronouns are argument
64 duplicators.
66     everyone   hit           himself
67     S/(S!NP)   (S!NP)/NP     (S!NP)!((S!NP)/NP)
68     \f∀x[fx]   \y\z[HIT y z] \h\u[huu]
69                --------------------------------- here "hit" is an argument to "himself"
70                       S!NP     \u[HIT u u]
71     -------------------------------------------- here "hit himself" is an argument to "everyone"
72                       S        ∀x[HIT x x]
74 Notice that the semantic value of *himself* is exactly `W`.  The reflexive
75 pronoun in direct object position combines with the transitive verb "hit".  The
76 result is an intransitive verb phrase "hit himself" that takes a subject argument `u`, duplicates
77 that argument, and feeds the two copies to the transitive verb meaning.
79 Note that `W <~~> S(CI)`:
81     S(CI) ≡
82     S ((\f x y. f y x) (\x x)) ~~>
83     S (\x y. (\x x) y x) ~~>
84     S (\x y. y x) ≡
85     (\f g x. f x (g x)) (\x y. y x) ~~>
86     \g x. (\x y. y x) x (g x) ~~>
87     \g x. (g x) x ≡
88     W
90 ###A different set of reduction rules###
92 Instead of defining combinators in terms of antecedently understood lambda terms, we want to consider the view that takes the combinators as primitive, and understands them in terms of *what they do*. If we have the `I` combinator followed by any expression `X`,
93 `I` will take that expression as its argument and return that same expression as the result.  Diagrammatically:
95     IX ~~> X
97 That is, asume that `X` stands in for any expression.  Then if `X`
98 happens to be the expression `I`, this schematic pattern guarantees
99 that `II ~~> I`; if `X` happens to be the expression `SK`, the pattern
100 guarantees that `I(SK) ~~> SK`; and so on.  That is, `X` here is a
101 metavariable over expressions.
103 Thinking of this as a reduction rule, we can perform the following computation:
105     II(IX) ~~> I(IX) ~~> IX ~~> X
107 The reduction rule for `K` is also straightforward:
109     KXY ~~> X
111 That is, `K` throws away its second argument.  The reduction rule for `S` can be constructed by examining
112 the defining lambda term:
114     S ≡ \f g x. f x (g x)
116 `S` takes three arguments, duplicates the third argument, and feeds one copy to the first argument and the second copy to the second argument.  So:
118     SFGX ~~> FX(GX)
120 If the meaning of a function is nothing more than how it behaves with respect to its arguments,
121 these reduction rules capture the behavior of the combinators `S`, `K`, and `I` completely.
122 We can use these rules to compute without resorting to beta reduction.
124 For instance, we can show how the `I` combinator's behavior is simulated by a
125 certain crafty combination of `S`s and `K`s:
127     SKKX ~~> KX(KX) ~~> X
129 So the combinator `SKK` is equivalent to the combinator `I`. (Really, it could be `SKY` for any `Y`.)
131 These reduction rule have the same status with respect to Combinatory
132 Logic as beta-reduction and eta-reduction have with respect to
133 the Lambda Calculus: they are purely syntactic rules for transforming
134 one sequence of symbols (e.g., a redex) into another (a reduced
135 form).  It's worth noting that the reduction rules for Combinatory
136 Logic are considerably more simple than, say, beta reduction.  Also, since
137 there are no variables in Combinatory Logic, there is no need to worry
138 about variables colliding when we substitute.
140 Combinatory Logic is what you have when you choose a set of
141 combinators and regulate their behavior with a set of reduction
142 rules. As we said, the most common system uses `S`, `K`, and `I` as
143 defined here.
145 ###The equivalence of the untyped Lambda Calculus and Combinatory Logic###
147 We've claimed that Combinatory Logic is "equivalent to" the Lambda Calculus.  If
148 that's so, then `S`, `K`, and `I` must be enough to accomplish any computational task
149 imaginable.  Actually, `S` and `K` must suffice, since we've just seen that we can
150 simulate `I` using only `S` and `K`.  In order to get an intuition about what it
151 takes to be Turing Complete, <!-- FIXME -->
152 recall our discussion of the Lambda Calculus in
153 terms of a text editor.  A text editor has the power to transform any arbitrary
154 text into any other arbitrary text.
155 The way it does this is by deleting, copying, and reordering characters.  We've
156 already seen that `K` deletes its second argument, so we have deletion covered.
157 `S` duplicates and reorders, so we have some reason to hope that `S` and `K` are
158 enough to define arbitrary functions.
160 We've already established that the behavior of combinatory terms can be
161 perfectly mimicked by lambda terms: just replace each combinator with its
162 equivalent lambda term, i.e., replace `I` with `\x. x`, replace `K` with `\x y. x`,
163 and replace `S` with `\f g x. f x (g x)`.  So the behavior of any combination of
164 combinators in Combinatory Logic can be exactly reproduced by a lambda term.
166 How about the other direction?  Here is a method for converting an arbitrary
167 lambda term into an equivalent Combinatory Logic term using only `S`, `K`, and `I`.
168 Besides the intrinsic beauty of this mapping, and the importance of what it
169 says about the nature of binding and computation, it is possible to hear an
170 echo of computing with continuations in this conversion strategy (though you
171 wouldn't be able to hear these echos until we've covered a considerable portion
172 of the rest of the course).  In addition, there is a direct linguistic
173 application of this mapping in chapter 17 of Barker and Shan 2014, where it is
174 used to establish a correspondence between two natural language grammars, one
175 of which is based on lambda-like abstraction, the other of which is based on
176 Combinatory Logic-like manipulations.
178 In order to establish the correspondence, we need to get a bit more
179 official about what counts as an expression in CL.  We'll endow CL
180 with an infinite stock of variable symbols, just like the lambda
181 calculus, including `x`, `y`, and `z`.  In addition, `S`, `K`, and `I`
182 are expressions in CL.  Finally, `(XY)` is in CL for any CL
183 expressions `X` and `Y`.  So examples of CL expressions include
184 `x`, `(xy)`, `Sx`, `SK`, `(x(SK))`, `(K(IS))`, and so on.  When we
185 omit parentheses, the assumption will be left associativity, so that
186 `XYZ == ((XY)Z)`.
188 It may seem wierd to allow variables in CL.  The reason that is
189 necessary is because we're trying to show that every lambda term can
190 be translated into an equivalent CL term.  Since some lambda terms
191 contain free variables, we need to provide a translation for free
192 variables.  As you might expect, it will turn out that whenever the
193 lambda term in question contains no free variables (i.e., is a
194 combinator), its translation in CL will also contain no variables.
196 Assume that for any lambda term T, [T] is the equivalent Combinatory
197 Logic term.  Then we can define the [.] mapping as follows.
199      1. [a]              a
200      2. [\aX]            @a[X]
201      3. [(XY)]           ([X][Y])
203      4. @aa              I
204      5. @aX              KX           if a is not in X
205      6. @a(XY)           S(@aX)(@aY)
207 Think of `@aX` as a psuedo-lambda abstract.
209 It's easy to understand these rules based on what `S`, `K` and `I` do.
211 Rule (1) says that variables are mapped to themselves. If the original
212 lambda expression had no free variables in it, then any such
213 translations will only be temporary. The variable will later get
214 eliminated by the application of other rules.
216 Rule (2) says that the way to translate an application is to
217 first translate the body (i.e., `[X]`), and then prefix a kind of
218 temporary psuedo-lambda built from `@` and the original variable.
220 Rule (3) says that the translation of an application of `X` to `Y` is
221 the application of the transtlation of `X` to the translation of `Y`.
223 As we'll see, the first three rules sweep through the lambda term,
224 changing each lambda to an @.
226 Rules (4) through (6) tell us how to eliminate all the `@`'s.
228 In rule (4), if we have `@aa`, we need a CL expression that behaves
229 like the lambda term `\aa`.  Obviously, `I` is the right choice here.
231 In rule (5), if we're binding into an expression that doesn't contain
232 any variables that need binding, then we need a CL term that behaves
233 the same as `\aX` would if `X` didn't contain `a` as a free variable.
234 Well, how does `\aX` behave?  When `\aX` occurs in the head position
235 of a redex, then no matter what argument it occurs with, it throws
236 away its argument and returns `X`.  In other words, `\aX` is a
237 constant function returning `X`, which is exactly the behavior
238 we get by prefixing `K`.
240 The easiest way to grasp rule (6) is to consider the following claim:
242     \a(XY) <~~> S(\aX)(\aY)
244 To prove it to yourself, just substitute `(\xyz.xz(yz))` in for `S`
245 and reduce.
247 Persuade yourself that if the original lambda term contains no free
248 variables --- i.e., is a combinator --- then the translation will
249 consist only of `S`, `K`, and `I` (plus parentheses).
251 Various, slightly differing translation schemes from Combinatory Logic to the
252 Lambda Calculus are also possible. These generate different metatheoretical
253 correspondences between the two calculi. Consult Hindley and Seldin for
254 details.
256 Also, note that the combinatorial proof theory needs to be
257 strengthened with axioms beyond anything we've here described in order to make
258 [M] convertible with [N] whenever the original lambda-terms M and N are
259 convertible.  But then, we've been a bit cavalier about giving the full set of
260 reduction rules for the Lambda Calculus in a similar way.  <!-- FIXME -->
262 For instance, one issue we mentioned in the notes on [[Reduction
263 Strategies|week3_reduction_strategies]] is whether reduction rules (in
264 either the Lambda Calculus or Combinatory Logic) apply to embedded
265 expressions.  Often, we do want that to happen, but making it happen
268 Let's see the translation rules in action.  We'll start by translating
269 the combinator we use to represent false:
271        [\t\ff]
272     == @t[\ff]      rule 2
273     == @t(@ff)      rule 2
274     == @tI          rule 4
275     == KI           rule 5
277 Let's check that the translation of the `false` boolean behaves as expected by feeding it two arbitrary arguments:
279     KIXY ~~> IY ~~> Y
281 Throws away the first argument, returns the second argument---yep, it works.
283 Here's a more elaborate example of the translation.  Let's say we want
284 to establish that combinators can reverse order, so we set out to
285 translate the **T** combinator (`\x y. y x`):
287        [\x\y(yx)]
288     == @x[\y(yx)]
289     == @x(@y[(yx)])
290     == @x(@y([y][x]))
291     == @x(@y(yx))
292     == @x(S(@yy)(@yx))
293     == @x(SI(@yx))
294     == @x(SI(Kx))
295     == S (@x(SI)) (@x(Kx))
296     == S (K(SI)) (S (@xK) (@xx))
297     == S (K(SI)) (S (KK) I)
299 By now, you should realize that all rules (1) through (3) do is sweep
300 through the lambda term turning lambdas into @'s.
302 We can test this translation by seeing if it behaves like the original lambda term does.
303 The orginal lambda term lifts its first argument (think of it as reversing the order of its two arguments):
305     S (K(SI)) (S(KK)I) X Y ~~>
306     (K(SI))X ((S(KK)I) X) Y ~~>
307     SI ((KK)X (IX)) Y ~~>
308     SI (K X) Y ~~>
309     IY (KXY) ~~>
310     Y X
312 Voilà: the combinator takes any X and Y as arguments, and returns Y applied to X.
314 One very nice property of Combinatory Logic is that there is no need to worry about alphabetic variance, or
315 variable collision---since there are no (bound) variables, there is no possibility of accidental variable capture,
316 and so reduction can be performed without any fear of variable collision.  We haven't mentioned the intricacies of
317 alpha equivalence or safe variable substitution, but they are in fact quite intricate.  (The best way to gain
318 an appreciation of that intricacy is to write a program that performs lambda reduction.)
320 Back to linguistic applications: one consequence of the equivalence between the Lambda Calculus and Combinatory
321 Logic is that anything that can be done by binding variables can just as well be done with combinators.
322 This has given rise to a style of semantic analysis called Variable-Free Semantics (in addition to
323 Szabolcsi's papers, see, for instance,
324 Pauline Jacobson's 1999 *Linguistics and Philosophy* paper, "Towards a variable-free Semantics").
326 Somewhat ironically, reading strings of combinators is so difficult that most practitioners of variable-free semantics
327 express their meanings using the Lambda Calculus rather than Combinatory Logic. Perhaps they should call their
328 enterprise *Free Variable*-Free Semantics.
330 A philosophical connection: Quine went through a phase in which he developed a variable-free logic.
332 > Quine, Willard. 1960. "Variables explained away" <cite>Proceedings of the American Philosophical Society</cite>.  Volume 104: 343--347.  Also in W. V. Quine.  1960. <cite>Selected Logical Papers</cite>.  Random House: New York.  227--235.
334 The reason this was important to Quine is similar to the worry that using
335 non-referring expressions such as `Santa Claus` might commit one to believing in
336 non-existent things.  Quine's slogan was that "to be is to be the value of a
337 variable."  What this was supposed to mean is that if and only if an object
338 could serve as the value of some variable, we are committed to recognizing the
339 existence of that object in our ontology.  Obviously, if there *are* no
340 variables, this slogan has to be rethought.
342 Quine did not appear to appreciate that Shoenfinkel had already invented Combinatory Logic, though
343 he later wrote an introduction to Shoenfinkel's key paper reprinted in Jean
344 van Heijenoort (ed) 1967 <cite>From Frege to Goedel, a source book in mathematical logic, 1879--1931</cite>.
346 Cresswell also developed a variable-free approach of some philosophical and linguistic interest
347 in two books in the 1990s.
349 A final linguistic application: Steedman's Combinatory Categorial Grammar, where the "Combinatory" is
350 from Combinatory Logic (see especially his 2012 book, <cite>Taking Scope</cite>).  Steedman attempts to build
351 a syntax/semantics interface using a small number of combinators, including `T` (`\x y. y x`), `B` (`\f g x. f (g x)`),
352 and our friend `S`.  Steedman used Smullyan's fanciful bird
353 names for these combinators: Thrush, Bluebird, and Starling.
355 Many of these combinatory logics, in particular, the SKI system,
356 are Turing Complete. In other words: every computation we know how to describe can be represented in a logical system consisting of only primitive combinators, even some systems with only a *single* primitive combinator.
357 <!-- FIXME -->
359 ###A connection between Combinatory Logic and Sentential Logic###
361 The combinators `K` and `S` correspond to two well-known axioms of sentential logic:
363     AK: A ⊃ (B ⊃ A)
364     AS: (A ⊃ (B ⊃ C)) ⊃ ((A ⊃ B) ⊃ (A ⊃ C))
366 When these two axiom schemas are combined with the rule of modus ponens (from `A` and `A ⊃ B`, conclude `B`), the resulting proof system
367 is complete for the "implicational fragment" of intuitionistic logic. (That is, the part of intuitionistic logic you get when `⊃` is your only connective. To get a complete proof system for *classical* sentential logic, you
368 need only add one more axiom schema, constraining the behavior of a new connective `¬`.)
369 The way we'll favor viewing the relationship between these axioms
370 and the `S` and `K` combinators is that the axioms correspond to *type
371 schemas* for the combinators. This will become more clear once we have
372 a theory of types in view.
374 Here's more to read about Combinatory Logic. Surely the most entertaining exposition is Smullyan's [[!wikipedia To_Mock_a_Mockingbird]].
375 Other sources include:
377 *   [[!wikipedia Combinatory logic]] at Wikipedia
378 *   [Combinatory logic](http://plato.stanford.edu/entries/logic-combinatory/) at the Stanford Encyclopedia of Philosophy
379 *   [[!wikipedia SKI combinatory calculus]]
380 *   [[!wikipedia B,C,K,W system]]
381 *   [Chris Barker's Iota and Jot](http://semarch.linguistics.fas.nyu.edu/barker/Iota/)
382 *   Jeroen Fokker, "The Systematic Construction of a One-combinator Basis for Lambda-Terms" <cite>Formal Aspects of Computing</cite> 4 (1992), pp. 776-780. <http://people.cs.uu.nl/jeroen/article/combinat/combinat.ps>