|
@@ -2659,7 +2659,7 @@ static void DBGUNDO(struct sock *sk, const char *msg)
|
|
|
#define DBGUNDO(x...) do { } while (0)
|
|
|
#endif
|
|
|
|
|
|
-static void tcp_undo_cwr(struct sock *sk, const int undo_ssthresh)
|
|
|
+static void tcp_undo_cwr(struct sock *sk, const bool undo_ssthresh)
|
|
|
{
|
|
|
struct tcp_sock *tp = tcp_sk(sk);
|
|
|
|
|
@@ -2698,7 +2698,7 @@ static int tcp_try_undo_recovery(struct sock *sk)
|
|
|
* or our original transmission succeeded.
|
|
|
*/
|
|
|
DBGUNDO(sk, inet_csk(sk)->icsk_ca_state == TCP_CA_Loss ? "loss" : "retrans");
|
|
|
- tcp_undo_cwr(sk, 1);
|
|
|
+ tcp_undo_cwr(sk, true);
|
|
|
if (inet_csk(sk)->icsk_ca_state == TCP_CA_Loss)
|
|
|
mib_idx = LINUX_MIB_TCPLOSSUNDO;
|
|
|
else
|
|
@@ -2725,7 +2725,7 @@ static void tcp_try_undo_dsack(struct sock *sk)
|
|
|
|
|
|
if (tp->undo_marker && !tp->undo_retrans) {
|
|
|
DBGUNDO(sk, "D-SACK");
|
|
|
- tcp_undo_cwr(sk, 1);
|
|
|
+ tcp_undo_cwr(sk, true);
|
|
|
tp->undo_marker = 0;
|
|
|
NET_INC_STATS_BH(sock_net(sk), LINUX_MIB_TCPDSACKUNDO);
|
|
|
}
|
|
@@ -2778,7 +2778,7 @@ static int tcp_try_undo_partial(struct sock *sk, int acked)
|
|
|
tcp_update_reordering(sk, tcp_fackets_out(tp) + acked, 1);
|
|
|
|
|
|
DBGUNDO(sk, "Hoe");
|
|
|
- tcp_undo_cwr(sk, 0);
|
|
|
+ tcp_undo_cwr(sk, false);
|
|
|
NET_INC_STATS_BH(sock_net(sk), LINUX_MIB_TCPPARTIALUNDO);
|
|
|
|
|
|
/* So... Do not make Hoe's retransmit yet.
|
|
@@ -2807,7 +2807,7 @@ static int tcp_try_undo_loss(struct sock *sk)
|
|
|
|
|
|
DBGUNDO(sk, "partial loss");
|
|
|
tp->lost_out = 0;
|
|
|
- tcp_undo_cwr(sk, 1);
|
|
|
+ tcp_undo_cwr(sk, true);
|
|
|
NET_INC_STATS_BH(sock_net(sk), LINUX_MIB_TCPLOSSUNDO);
|
|
|
inet_csk(sk)->icsk_retransmits = 0;
|
|
|
tp->undo_marker = 0;
|
|
@@ -3496,7 +3496,7 @@ static void tcp_undo_spur_to_response(struct sock *sk, int flag)
|
|
|
if (flag & FLAG_ECE)
|
|
|
tcp_ratehalving_spur_to_response(sk);
|
|
|
else
|
|
|
- tcp_undo_cwr(sk, 1);
|
|
|
+ tcp_undo_cwr(sk, true);
|
|
|
}
|
|
|
|
|
|
/* F-RTO spurious RTO detection algorithm (RFC4138)
|