JP2009027303A - Communication apparatus and communication method - Google Patents
Communication apparatus and communication method Download PDFInfo
- Publication number
- JP2009027303A JP2009027303A JP2007186566A JP2007186566A JP2009027303A JP 2009027303 A JP2009027303 A JP 2009027303A JP 2007186566 A JP2007186566 A JP 2007186566A JP 2007186566 A JP2007186566 A JP 2007186566A JP 2009027303 A JP2009027303 A JP 2009027303A
- Authority
- JP
- Japan
- Prior art keywords
- tcp
- flow
- simulation
- congestion
- congestion window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
Description
本発明は、通信装置および通信方法に関し、特に、他のコネクションとの利用帯域の公平性を保持しつつ、利用可能帯域を十分に利用することができるようにした通信装置および通信方法に関する。 The present invention relates to a communication apparatus and a communication method, and more particularly, to a communication apparatus and a communication method that can fully use an available band while maintaining fairness of a used band with other connections.
近年、インターネットが普及してきている。また、それに伴いネットワークは複雑化し、輻輳の発生も増大している。輻輳は転送性能の低下を招くため、輻輳を回避する技術は重要である。 In recent years, the Internet has become widespread. Along with this, the network is becoming more complex and congestion is increasing. Since congestion causes a drop in transfer performance, a technique for avoiding congestion is important.
例えば、現在、TCP(Transmission Control Protocol)が、事実上、標準のインターネットプロトコルとなっている。しかしながら、TCPでは、中間ノードを透明化して通信を行うため、中間ノードは、流れてくるデータの全体量を知ることができない。これにより、
受信データをバッファから溢れさせてしまう現象、即ち輻輳が発生する。
For example, at present, TCP (Transmission Control Protocol) is effectively the standard Internet protocol. However, in TCP, since the intermediate node is made transparent to perform communication, the intermediate node cannot know the total amount of data that flows. This
A phenomenon that the received data overflows from the buffer, that is, congestion occurs.
輻輳によって喪失したデータの再送が行われると、そのデータによってまた輻輳が発生する輻輳崩壊という悪循環に陥るため、輻輳は悪化していく傾向がある。従って、輻輳を回避するために、輻輳を制御することが必要となる。 When data lost due to congestion is retransmitted, the data tends to worsen because it falls into a vicious circle of congestion collapse that causes congestion again. Therefore, it is necessary to control congestion in order to avoid congestion.
そこで、現在、TCPでは、パケットの喪失を検出すると、ウィンドウサイズを小さくすることで輻輳回避を行っている。具体的には、現在普及している、RenoというバージョンのTCPでは、図1に示すように、スロースタート状態11と輻輳回避状態12の2つの状態で、ウィンドウサイズを制御している。
Therefore, currently, in TCP, when packet loss is detected, congestion is avoided by reducing the window size. Specifically, in the currently popular version of TCP called Reno, the window size is controlled in two states, a
図1のスロースタート状態11では、データの確認応答であるACKが受信されるたびに、輻輳ウィンドウcwndが1セグメント分増加する。即ち、スロースタート状態11では、輻輳ウィンドウcwndが指数的に増加する。一方、輻輳回避状態12では、ACKが受信されるたびに、輻輳ウィンドウcwndが、1/cwndセグメント分増加する。即ち、輻輳回避状態12では、輻輳ウィンドウcwndが線形的に増加する。
In the
また、輻輳ウィンドウcwndが閾値ssthreshより大きい場合、状態が、スロースタート状態11から、輻輳回避状態12に遷移する。なお、閾値ssthreshの初期値は、ウィンドウサイズの最大値であり、輻輳が検出された場合、そのときのウィンドウサイズの半分に設定される。
When the congestion window cwnd is larger than the threshold value ssthresh, the state transitions from the
さらに、タイムアウトにより輻輳が検出された場合、そのときの状態が輻輳回避状態であればスロースタート状態に遷移し、そのときの状態がスロースタート状態であれば、その状態を維持する。また、重複ACKにより輻輳が検出され、かつ、再送が成功した場合、そのときの状態がスロースタート状態であれば、輻輳回避状態に遷移し、そのときの状態が輻輳回避状態であれば、その状態を維持する。 Further, when congestion is detected due to timeout, if the state at that time is a congestion avoidance state, a transition is made to the slow start state, and if the state at that time is a slow start state, the state is maintained. In addition, when congestion is detected by duplicate ACK and retransmission is successful, if the current state is the slow start state, the state transits to the congestion avoidance state, and if the current state is the congestion avoidance state, Maintain state.
以下に、具体的な動作について説明する。 The specific operation will be described below.
まず最初に、状態はスロースタート状態11に設定され、輻輳ウィンドウcwndは最小値に設定される。そして、ACKが受信されるたびに、輻輳ウィンドウcwndが1セグメント分増加する。従って、送信したデータ全てに対するACKが受信されると、次に同時に送り出されるデータ量は、前回の2倍になる。その結果、短時間のうちに、利用可能帯域以上のデータ量のデータが送信されるようになり、輻輳が発生する。
Initially, the state is set to the
そして、タイムアウトにより輻輳が検出されると、閾値ssthreshが、そのときのウィンドウサイズの半分に設定され、輻輳ウィンドウcwndが最小値に戻される。輻輳ウィンドウcwndは再び増加し、閾値ssthreshを越えたとき、状態が、スロースタート状態11から輻輳回避状態12に遷移する。
When congestion is detected due to timeout, the threshold ssthresh is set to half of the window size at that time, and the congestion window cwnd is returned to the minimum value. The congestion window cwnd increases again, and when the threshold value ssthresh is exceeded, the state transitions from the
なお、このとき、輻輳が重複ACKにより検出された場合、パケットの再送に成功していれば、検出された輻輳が軽微なものであると判断され、輻輳ウィンドウcwndは最小値ではなく、そのときのウィンドウサイズの半分に設定される。従って、この場合、輻輳ウィンドウcwndが、直ぐに閾値ssthreshを超え、状態がスロースタート状態11から輻輳回避状態12に遷移する。その結果、輻輳ウィンドウcwndが最小値に戻されることによる、無駄な転送性能の低下を防止することができる。
At this time, if congestion is detected by duplicate ACK, if the packet is successfully retransmitted, it is determined that the detected congestion is minor, and the congestion window cwnd is not the minimum value, and Is set to half the window size. Therefore, in this case, the congestion window cwnd immediately exceeds the threshold value ssthresh, and the state transitions from the
輻輳回避状態12では、輻輳ウィンドウcwndが、ACKが受信されるたびに、1/cwnd分増加する。従って、スロースタート状態11の場合に比べて、輻輳ウィンドウcwndの増加速度が小さくなり、輻輳が発生するまでの時間が長くなる。しかしながら、輻輳ウィンドウcwndが減少することはないため、いずれ輻輳が発生する。そして、タイムアウトにより輻輳が検出されると、閾値ssthreshが、そのときのウィンドウサイズの半分に設定され、輻輳ウィンドウcwndが最小値に戻される。状態は輻輳回避状態12からスロースタート状態11に遷移する。
In the
しかしながら、TCP Renoにおける輻輳回避は、輻輳発生後に行われるので、再送により余計なパケットを送信する必要があり、さらに、変化の激しいインターネットへの対応が困難である。また、輻輳が検出されるたびに、輻輳ウィンドウcwndが、そのときのウィンドウサイズの半分以下に低下するので、利用可能帯域を十分に活用することは難しい。 However, since congestion avoidance in TCP Reno is performed after congestion occurs, it is necessary to transmit extra packets by retransmission, and it is difficult to cope with the rapidly changing Internet. In addition, every time congestion is detected, the congestion window cwnd decreases to less than half of the window size at that time, so it is difficult to fully utilize the available bandwidth.
そこで、ネットワークの状態を予測し、輻輳を事前に回避する技術が研究されている。この研究の手法は、大きく2つに分類され、1つ目の手法は、TCPではなく全く新しい高速で高信頼性のプロトコルを開発するものである。この手法では、新しいプロトコルが、広帯域高遅延を前提として設計されているため、この環境においては、従来のTCPより転送性能が高い。しかしながら、TCPとの互換性がないため、新しいプロトコルとTCPを仲介するための特殊なノードが必要となる。従って、新しいプロトコルを普及させるためには相当のコストがかかる。 Therefore, techniques for predicting the state of the network and avoiding congestion in advance have been studied. The methods of this research are roughly classified into two, and the first method is to develop a completely new high-speed and reliable protocol instead of TCP. In this method, since a new protocol is designed on the premise of broadband and high delay, in this environment, the transfer performance is higher than that of the conventional TCP. However, since it is not compatible with TCP, a new protocol and a special node to mediate TCP are required. Therefore, a considerable cost is required to spread a new protocol.
また、2つ目の手法は、従来のTCPとの互換性を保持しつつ、輻輳回避アルゴリズムを改善するものである。この手法では、1つ目の手法のような劇的な転送性能の改善は難しいが、従来のTCPと互換性があるため、普及させるために特別な仲介ノードなどは必要ない。従って、輻輳回避アルゴリズムが改善されたTCPは、低コストで実装することができ、実用的である。 The second method improves the congestion avoidance algorithm while maintaining compatibility with the conventional TCP. In this method, it is difficult to dramatically improve the transfer performance as in the first method, but since it is compatible with the conventional TCP, a special intermediary node or the like is not necessary for the spread. Therefore, TCP with improved congestion avoidance algorithm can be implemented at low cost and is practical.
そこで、2つ目の手法により、Brakmoらは、VegasというバージョンのTCPを提案している。TCP Vegasでは、TCP RenoでRTO(Retransmission Time-Out)を算出するために使用されていたRTT(Round Trip Time)が正確に測定され、期待されるスループットと実際のスループットが計算される。そして、この2つのスループットを比較することで、ネットワークの輻輳が推測され、ウィンドウサイズが調整される。 Therefore, Brakmo et al. Proposed a version of TCP called Vegas by the second method. In TCP Vegas, RTT (Round Trip Time) used to calculate RTO (Retransmission Time-Out) in TCP Reno is accurately measured, and expected throughput and actual throughput are calculated. Then, by comparing these two throughputs, network congestion is estimated and the window size is adjusted.
具体的には、TCP Vegasにおけるスロースタート状態と輻輳回避状態での輻輳ウィンドウcwndの制御方法は、以下の式(1)で表される。 Specifically, the method of controlling the congestion window cwnd in the slow start state and the congestion avoidance state in TCP Vegas is expressed by the following equation (1).
なお、式(1)において、αとβは定数であり、定数αは定数βより小さい。また、BaseRTTは、これまでに測定された最小のRTTである。式(1)によれば、スロースタート状態において、輻輳ウィンドウcwndは指数的に増加する。 In the formula (1), α and β are constants, and the constant α is smaller than the constant β. BaseRTT is the smallest RTT measured so far. According to Equation (1), the congestion window cwnd increases exponentially in the slow start state.
また、式(1)においてDiffは、期待されるスループットと実際のスループットの差であり、以下の式(2)で表される。 Moreover, Diff in the formula (1) is a difference between the expected throughput and the actual throughput, and is expressed by the following formula (2).
以上のように、TCP Vegasでは、輻輳回避状態において、期待されるスループットと実際のスループットの差により、ネットワークの状態が予測され、輻輳ウィンドウcwndが制御されるので、輻輳が軽微なネットワークにおいて、TCP Renoより転送性能を向上させることができる。 As described above, in TCP Vegas, in the congestion avoidance state, the state of the network is predicted based on the difference between the expected throughput and the actual throughput, and the congestion window cwnd is controlled. Transfer performance can be improved over Reno.
しかしながら、TCP Vegasでは、ネットワーク帯域が積極的に利用されるため、他のコネクションとの帯域利用の公平性が損なわれてしまう。また、変化の激しいネットワークでは、BaseRTTの測定が困難である。さらに、重度の輻輳では、輻輳回避アルゴリズムが機能しない可能性がある。また、TCP Renoでは、上述したように、輻輳ウィンドウcwndは増加するだけで減少しないので、TCP Vegasによる通信がTCP Renoによる通信と帯域を共有した場合、RTTが低下し、その結果、転送性能が著しく低下してしまう。 However, in TCP Vegas, since network bandwidth is actively used, the fairness of bandwidth usage with other connections is impaired. In addition, it is difficult to measure BaseRTT in a rapidly changing network. Furthermore, the congestion avoidance algorithm may not function in severe congestion. Also, in TCP Reno, as mentioned above, the congestion window cwnd only increases and does not decrease, so when TCP Vegas communication shares bandwidth with TCP Reno communication, RTT decreases, resulting in transfer performance. It will drop significantly.
また、輻輳制御アルゴリズムが改善されたTCPとして、TCP Vegas とTCP Renoとで帯域を共有した際に転送性能が低下する問題を解決したもの、インライン計測により利用可能帯域の情報を取得し、その情報を利用したウィンドウサイズ制御アルゴリズムを有するものなどが提案されている。しかしながら、これらのTCPは、他のコネクションとの帯域利用の公平性の問題から、実用化には至っていない。 In addition, TCP with improved congestion control algorithm solves the problem of reduced transfer performance when TCP Vegas and TCP Reno share bandwidth, and obtains information on available bandwidth by inline measurement. Some have a window size control algorithm that uses. However, these TCPs have not yet been put into practical use due to the problem of fairness in bandwidth usage with other connections.
さらに、輻輳制御アルゴリズムが改善されたTCPとして、機械学習を取り入れることにより、ネットワークの状態から輻輳を予測し、ウィンドウサイズを制御する輻輳制御アルゴリズムを有するTCPも提案されている。このTCPでは、ネットワークの変化に素早く反応するなどの改善が確認されたが、帯域を積極的に利用するため、他のコネクションと帯域を共有した場合の利用帯域の公平性が犠牲になってしまう。 Further, as a TCP having an improved congestion control algorithm, a TCP having a congestion control algorithm for predicting congestion from a network state and controlling a window size by incorporating machine learning has been proposed. This TCP has confirmed improvements such as a quick response to changes in the network, but since the bandwidth is actively used, the fairness of the bandwidth used when sharing the bandwidth with other connections is sacrificed. .
ところで、従来の輻輳制御方法としては、ATM(Asynchronous Transfer Mode)などの通信網において、実データとは別にRTT計測用のパケットを定期的に送信し、そのパケットのRTT時系列から、ニューラルネットを用いて次のRTTを予測し、予測したRTTにより転送レートを増減する自立分散型トラヒックフロー制御方法がある(例えば、特許文献1参照)。 By the way, as a conventional congestion control method, in a communication network such as ATM (Asynchronous Transfer Mode), a packet for RTT measurement is periodically transmitted separately from actual data, and a neural network is obtained from the RTT time series of the packet. There is an autonomous distributed traffic flow control method that uses the predicted RTT to predict the next RTT and increases or decreases the transfer rate based on the predicted RTT (see, for example, Patent Document 1).
しかしながら、この自立分散型トラヒックフロー制御方法では、RTT計測用のパケットを送信する必要があるので、パケットの転送量が増加してしまう。また、この自立分散型トラヒックフロー制御方法は、ATMなどの通信網における通信の制御を目的として考案されているため、他フローとの公平性は考慮されていない。 However, in this autonomous distributed traffic flow control method, it is necessary to transmit a packet for RTT measurement, so that the amount of packet transfer increases. In addition, this autonomous distributed traffic flow control method has been devised for the purpose of controlling communication in a communication network such as ATM, and therefore, fairness with other flows is not considered.
また、従来の輻輳制御方法としては、帯域の利用効率の改善、および、既存TCPとの帯域利用の公平性を目的として、ボトルネックルータのバッファ量を推定し、バッファを最大限に使うようにウィンドウサイズを制御する輻輳制御方法がある(例えば、特許文献2参照)。 Also, as a conventional congestion control method, the buffer amount of the bottleneck router is estimated and the buffer is used as much as possible for the purpose of improving bandwidth utilization efficiency and fairness of bandwidth utilization with the existing TCP. There is a congestion control method for controlling the window size (see, for example, Patent Document 2).
しかしながら、この輻輳制御方法では、輻輳発生直前のDiff値(Diff_max)のみを用いる学習により、バッファ量を推定しているため、学習の精度は低い。そのため、輻輳を防止するためには、バッファ量を低めに推定せざるを得ず、利用可能帯域は十分に利用することが困難である。 However, in this congestion control method, since the buffer amount is estimated by learning using only the Diff value (Diff_max) immediately before the occurrence of congestion, the learning accuracy is low. Therefore, in order to prevent congestion, the buffer amount must be estimated to be low, and it is difficult to sufficiently use the available bandwidth.
さらに、従来の輻輳制御方法としては、マルチメディアデータのTCP通信のエンドツーエンドトラフィック管理を目的として、過去のパケット送信履歴と応答履歴で定まる回線の状態(キュー占有率)をキューでモデル化し、1時刻先からm時刻先までの応答時刻である予測応答時系列をマルチタイムスケール線形予測により予測することにより、その予測応答時系列とパケット送信履歴で定まる回線の状態を予測し、その予測された回線の状態に応じて、個々のパケットの送信時刻を決定する方法がある(例えば、特許文献3参照)。 Furthermore, as a conventional congestion control method, for the purpose of end-to-end traffic management of TCP communication of multimedia data, the line state (queue occupancy rate) determined by past packet transmission history and response history is modeled as a queue, By predicting the predicted response time series, which is the response time from 1 time ahead to m time ahead, by multi-time scale linear prediction, the state of the line determined by the predicted response time series and packet transmission history is predicted and There is a method of determining the transmission time of each packet according to the state of the line (for example, see Patent Document 3).
しかしながら、この方法では、予測応答時系列をマルチタイムスケール線形予測により予測するので、予測の精度は低い。そのため、輻輳を防止するためには、回線の状態のレベルを低めに予測せざるを得ず、利用可能帯域は十分に利用することが困難である。 However, in this method, since the prediction response time series is predicted by multi-time scale linear prediction, the accuracy of prediction is low. Therefore, in order to prevent congestion, it is necessary to predict the level of the line state to be low, and it is difficult to sufficiently use the available bandwidth.
以上のように、他のコネクションとの利用帯域の公平性を保持しつつ、輻輳を事前に回避することにより、利用可能帯域を十分に利用する輻輳制御アルゴリズムは考えられていなかった。 As described above, a congestion control algorithm that fully utilizes the available bandwidth by avoiding congestion in advance while maintaining fairness of the available bandwidth with other connections has not been considered.
本発明は、このような状況に鑑みてなされたものであり、他のコネクションとの利用帯域の公平性を保持しつつ、利用可能帯域を十分に利用することができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to sufficiently use the available bandwidth while maintaining the fairness of the bandwidth used with other connections.
本発明の一側面の通信装置は、ネットワークを介した通信を行う通信装置において、直前の輻輳ウィンドウとRTTの履歴を用いて、新たな輻輳ウィンドウを予測する予測手段と、予測された前記輻輳ウィンドウを用いて、前記ネットワークの帯域を割り当て、その帯域でデータを送信する送信手段とを備える。 A communication apparatus according to an aspect of the present invention includes a prediction unit that predicts a new congestion window using a previous congestion window and RTT history in a communication apparatus that performs communication via a network, and the predicted congestion window. And transmitting means for allocating a bandwidth of the network and transmitting data in the bandwidth.
本発明の一側面の通信装置において、前記予測手段は、前記直前の輻輳ウィンドウと、前記RTTの逆数の履歴を用いて、新たな輻輳ウィンドウを予測することができる。 In the communication apparatus according to the aspect of the present invention, the prediction unit can predict a new congestion window by using the previous congestion window and the history of the reciprocal of the RTT.
本発明の一側面の通信装置において、前記予測手段は、前記直前の輻輳ウィンドウと、前記RTTの逆数の履歴を用いて、新たな輻輳ウィンドウを線形予測することができる。 In the communication apparatus according to the aspect of the present invention, the prediction unit can linearly predict a new congestion window using the previous congestion window and a history of the reciprocal of the RTT.
本発明の一側面の通信方法は、ネットワークを介した通信を行う通信装置の通信方法において、直前の輻輳ウィンドウとRTTの履歴を用いて、新たな輻輳ウィンドウを予測し、予測された前記輻輳ウィンドウを用いて、前記ネットワークの帯域を割り当て、その帯域でデータを送信するステップを含む。 A communication method according to an aspect of the present invention is a communication method of a communication apparatus that performs communication via a network, predicts a new congestion window using a previous congestion window and RTT history, and predicts the predicted congestion window. , And allocating a bandwidth of the network and transmitting data in the bandwidth.
本発明の一側面においては、直前の輻輳ウィンドウとRTTの履歴を用いて、新たな輻輳ウィンドウが予測され、予測された輻輳ウィンドウを用いて、ネットワークの帯域が割り当てられ、その帯域でデータが送信される。 In one aspect of the present invention, a new congestion window is predicted using the previous congestion window and RTT history, a network bandwidth is allocated using the predicted congestion window, and data is transmitted in the bandwidth. Is done.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
本発明の一側面の通信装置は、
ネットワークを介した通信を行う通信装置(例えば、図2の通信装置20)において、
直前の輻輳ウィンドウとRTTの履歴を用いて、新たな輻輳ウィンドウを予測する予測手段(例えば、図4の輻輳ウィンドウ決定部63)と、
予測された前記輻輳ウィンドウを用いて、前記ネットワークの帯域を割り当て、その帯域でデータを送信する送信手段(例えば、図4の送信部64)と
を備える。
A communication device according to one aspect of the present invention includes:
In a communication device that performs communication via a network (for example, the
Prediction means for predicting a new congestion window using the previous congestion window and RTT history (for example, the congestion
A transmission unit (for example, the
本発明の一側面の通信方法は、
ネットワークを介した通信を行う通信装置(例えば、図2の通信装置20)の通信方法において、
直前の輻輳ウィンドウとRTTの履歴を用いて、新たな輻輳ウィンドウを予測し(例えば、図5のステップS22)、
予測された前記輻輳ウィンドウを用いて、前記ネットワークの帯域を割り当て、その帯域でデータを送信する(例えば、図5のステップS12)
ステップを含む。
A communication method according to one aspect of the present invention includes:
In a communication method of a communication device that performs communication via a network (for example, the
A new congestion window is predicted using the previous congestion window and RTT history (for example, step S22 in FIG. 5),
Using the predicted congestion window, a bandwidth of the network is allocated, and data is transmitted using the bandwidth (for example, step S12 in FIG. 5).
Includes steps.
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
図2は、本発明を適用した通信装置の一実施の形態のハードウェアの構成例を示している。 FIG. 2 shows a hardware configuration example of an embodiment of a communication apparatus to which the present invention is applied.
図2の通信装置20において、CPU(Central Processing Unit)21,ROM(Read Only Memory)22,RAM(Random Access Memory)23は、バス24により相互に接続されている。
In the
バス24には、さらに、入出力インターフェース25が接続されている。入出力インターフェース25には、キーボード、マウス、マイクロホン、リモートコントローラから送信されてくる指令を受信する受信部などよりなる入力部26、ディスプレイ、スピーカなどよりなる出力部27、ハードディスクや不揮発性のメモリなどよりなる記憶部28、ネットワークインタフェースなどよりなる通信部29、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア31を駆動するドライブ30が接続されている。
An input /
以上のように構成される通信装置20では、CPU21が、例えば、記憶部28に記憶されているプログラムを、入出力インターフェース25およびバス24を介して、RAM23にロードして実行することにより、記憶部28などに記憶されているデータを、他の装置に送信する。
In the
具体的には、CPU21は、例えば、記憶部28から送信対象とするデータを読み出し、通信部29に供給する。通信部29は、現行のTCPと互換性を有する、SaltというバージョンのTCPであるTCP Salt(後述する)にしたがって、CPU21から供給されるデータを、インターネットを介して送信する。
Specifically, for example, the
通信装置20のCPU21が実行するプログラムは、例えば、リムーバブルメディア31に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
The program executed by the
そして、プログラムは、リムーバブルメディア31をドライブ30に装着することにより、入出力インターフェース25を介して、記憶部28にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部29で受信し、記憶部28にインストールすることができる。その他、プログラムは、ROM22や記憶部28に、予めインストールしておくことができる。
The program can be installed in the
次に、図3は、TCP Saltの状態遷移図である。 Next, FIG. 3 is a state transition diagram of TCP Salt.
図3に示すように、TCP Saltでは、ブースト状態41と輻輳回避状態42の2つの状態がある。輻輳が検出されると、状態はブースト状態41から輻輳回避状態42に遷移する。また、利用可能帯域が増加して、利用可能帯域に余裕があると判断されると、状態は輻輳回避状態42からブースト状態41に遷移する。
As shown in FIG. 3, TCP Salt has two states, a
ブースト状態41では、正常なACKが受信されるたびに、輻輳ウィンドウcwndが1セグメント分増加する。一方、輻輳回避状態42では、前回の輻輳ウィンドウcwndと、送信側で入手可能なRTTを用いて、以下の式(3)により、今回の輻輳ウィンドウとして最適な輻輳ウィンドウcwnd´が線形予測される。
In
なお、式(3)において、IRTTiはi(1≦i≦n)回前のRTTの逆数であり、w0とwiは重み係数である。式(3)によれば、輻輳ウィンドウcwnd´は、IRTTiと前回の輻輳ウィンドウcwndが表す入力ベクトルと、重み係数w0とwiが表す係数ベクトルの内積、つまり、線形結合で表される。 In Equation (3), IRTT i is the reciprocal of RTT i (1 ≦ i ≦ n) times before, and w 0 and w i are weighting factors. According to Equation (3), the congestion window cwnd ′ is expressed by an inner product of the input vector represented by IRTT i and the previous congestion window cwnd and the coefficient vector represented by the weighting coefficients w 0 and w i , that is, a linear combination. .
即ち、IRTTは、輻輳の程度、即ち回線の混雑度に比例するものであるため、式(3)では、IRTTが回線の状況を表すものとして用いられる。そして、式(3)では、輻輳ウィンドウcwnd´は、過去の回線の状況を表すIRTTの履歴であるIRTTiと、その回線をどのように使用したかを表す直前の輻輳ウィンドウcwndとを用いた線形結合により予測される。 That is, since IRTT is proportional to the degree of congestion, that is, the degree of congestion of the line, IRTT is used as an expression of the line condition in Equation (3). In Expression (3), as the congestion window cwnd ′, IRTT i that is a history of IRTT representing the state of the past line and a congestion window cwnd immediately before representing how the line is used are used. Predicted by linear combination.
従って、式(3)では、過去の回線の状況を表すIRTTiと、その回線をどのように使用したかを表す直前の輻輳ウィンドウcwndを用いて、現在のIRTT0、つまり現在の回線の状況を予測し、それに応じた輻輳ウィンドウcwnd´を求めているといえる。 Therefore, in the equation (3), the current IRTT 0 , that is, the current line status, is obtained using IRTT i representing the past line status and the congestion window cwnd immediately before representing how the line was used. It can be said that the congestion window cwnd ′ corresponding to the prediction is obtained.
このように、TCP Saltでは、過去の回線の状況を表すIRTTiと、その回線をどのように使用したかを表す直前の輻輳ウィンドウcwndを用いて、現在の回線の状況を予測するので、直前の回線の状況により現在の回線の状況を予測する場合に比べて、精度の高い予測を行うことができる。その結果、利用可能帯域を十分に利用することができる。 In this way, in TCP Salt, the current line status is predicted using IRTT i that represents the status of the past line and the congestion window cwnd immediately before that indicates how the line was used. Compared with the case where the current line status is predicted based on the current line status, it is possible to perform prediction with higher accuracy. As a result, the available bandwidth can be fully utilized.
また、式(3)で逆数が用いられるRTTは、現行のTCPによる通信においても使用されるものであるため、式(3)により輻輳ウィンドウcwnd´を予測するTCP Saltは、従来のTCPとの互換性を有している。 In addition, since the RTT in which the reciprocal number is used in the equation (3) is also used in the current communication by TCP, the TCP Salt that predicts the congestion window cwnd ′ by the equation (3) is the same as the conventional TCP. It has compatibility.
以上のようにして式(3)により輻輳ウィンドウcwnd´が予測されると、その輻輳ウィンドウcwnd´を用いてインターネットの帯域が割り当てられ、その帯域でデータの送信が行われる。 As described above, when the congestion window cwnd ′ is predicted by the expression (3), the Internet band is allocated using the congestion window cwnd ′, and data is transmitted in the band.
なお、上述した重み係数w0とwiは、以下の式(4)にしたがって更新(機械学習)され、上述した輻輳ウィンドウcwnd´の予測に用いられる。 The weighting factors w 0 and w i described above are updated (machine learning) according to the following equation (4), and are used for the prediction of the congestion window cwnd ′ described above.
なお、式(4)において、輻輳ウィンドウcwndは、式(3)において用いられる前回の輻輳ウィンドウcwndである。また、Cは所定の学習係数である。さらに、式(4)におけるERRORは、以下の式(5)により求められる。 In Expression (4), the congestion window cwnd is the previous congestion window cwnd used in Expression (3). C is a predetermined learning coefficient. Furthermore, ERROR in equation (4) is obtained by the following equation (5).
なお、式(5)において、RTTjはj(0≦j≦n−1)回前のRTTであり、MAX_RTTは、RTTの最大値である。 In Equation (5), RTT j is RTT j (0 ≦ j ≦ n−1) times before, and MAX_RTT is the maximum value of RTT.
上述した式(4)と式(5)によれば、輻輳の程度が減少する(RTTj+1>RTTj)と、重み係数w0とwiが増加し、輻輳の程度が増加する(RTTj+1<RTTj)と、重み係数w0とwiが減少する。また、輻輳の程度が不変(RTTj+1=RTTj)であれば、重み係数w0とwiも変化しない。その結果、重み係数w0とwiは、輻輳の程度が減少した場合、輻輳ウィンドウcwnd´を増加させ、輻輳の程度が増加した場合、輻輳ウィンドウcwnd´を減少させることができる。 According to the equations (4) and (5) described above, when the degree of congestion decreases (RTT j + 1 > RTT j ), the weighting factors w 0 and w i increase, and the degree of congestion increases ( RTT j + 1 <RTT j ) and the weighting factors w 0 and w i decrease. Further, if the degree of congestion is unchanged (RTT j + 1 = RTT j ), the weighting factors w 0 and w i do not change. As a result, the weighting factors w 0 and w i can increase the congestion window cwnd ′ when the degree of congestion decreases, and decrease the congestion window cwnd ′ when the degree of congestion increases.
従って、式(4)と式(5)によれば、回線を混雑させず、かつ、無駄にしない最適な輻輳ウィンドウcwnd´の予測に必要な重み係数w0とwiを、学習することができる。 Therefore, according to the equations (4) and (5), it is possible to learn the weighting factors w 0 and w i necessary for predicting the optimum congestion window cwnd ′ without congesting the line and without wasting it. it can.
以上のように、輻輳回避状態42では、輻輳ウィンドウcwnd´の予測に用いられる重み係数w0とwiが更新され、その重み係数w0とwi、前回の輻輳ウィンドウcwnd、並びに過去n回分のIRTTiの履歴により、輻輳ウィンドウcwnd´が予測される。
As described above, in the
なお、式(3)および式(4)では、IRTTiそのものを用いるのではなく、以下の式(6)にしたがって正規化したIRTTiを用いる。 In Expressions (3) and (4), IRTT i itself is not used, but IRTT i normalized according to the following Expression (6) is used.
なお、式(6)において、MIN_RTTは、RTTの最小値である。 In Equation (6), MIN_RTT is the minimum value of RTT.
図4は、図2の通信部29の機能的構成例を示している。
FIG. 4 shows a functional configuration example of the
図4の通信部29は、RTT演算部61、状態判定部62、輻輳ウィンドウ決定部63、送信部64、および受信部65により構成される。なお、通信部29を構成する各ブロックは、必要に応じて相互に信号を授受することが可能とされている。
The
RTT演算部61は、送信部64から供給される、送信対象のデータ(以下、送信データという)に付加されたタイムスタンプを記憶する。また、RTT演算部61は、記憶している送信データのタイムスタンプと、受信部65から供給される、その送信データに対する確認応答であるACKに付加されたタイムスタンプとの差を、RTTとして演算する。RTT演算部61は、そのRTTを状態判定部62と輻輳ウィンドウ決定部63に供給する。
The
状態判定部62は、受信部65から供給される輻輳の検出を表す情報に応じて、状態をブースト状態41から輻輳回避状態42に遷移させる。また、状態判定部62は、RTT演算部61から供給されるRTTの変動が0になったとき、状態を輻輳回避状態42からブースト状態41に遷移させる。即ち、利用可能帯域に余裕があることと、RTTの変動が少ないことに関連性があるため、状態判定部62は、RTTの変動が0になったとき、利用可能帯域に余裕があると判断して、状態をブースト状態41に遷移させる。また、状態判定部62は、現在の状態を表す情報を輻輳ウィンドウ決定部63に供給する。
The
輻輳ウィンドウ決定部63は、RTT演算部61から供給されるRTTを記憶する。また、輻輳ウィンドウ決定部63は、状態判定部62から供給される現在の状態を表す情報に応じて、輻輳ウィンドウcwndを決定する。具体的には、現在の状態がブースト状態41である場合、輻輳ウィンドウ決定部63は、RTT演算部61からRTTが供給されるたびに、輻輳ウィンドウcwndを、前回の輻輳ウィンドウcwndから1セグメント分増加させて、今回の輻輳ウィンドウcwndとする。
The congestion
また、現在の状態が輻輳回避状態42である場合、輻輳ウィンドウ決定部63は、過去n回分と現在のRTTj、予め設定されている学習係数C、前回の重み係数w0とwi、および前回の輻輳ウィンドウcwndを用いて、式(4)と式(5)にしたがって重み係数w0とwiを更新し、記憶する。
When the current state is the
そして、輻輳ウィンドウ決定部63は、記憶されている過去のn回分のRTTi、更新された重み係数w0およびwi、並びに、前回の輻輳ウィンドウcwndを用いて、上述した式(3)にしたがって輻輳ウィンドウcwnd´を予測し、今回の輻輳ウィンドウcwndとする。輻輳ウィンドウ決定部63は、今回の輻輳ウィンドウcwndを記憶するとともに、送信部64に供給する。
Then, the congestion
送信部64は、CPU21(図2)から供給される送信データにセグメント単位でタイムスタンプを付加する。そして、送信部64は、輻輳ウィンドウ決定部63から供給される今回の輻輳ウィンドウcwndを用いて、インターネットの帯域を割り当て、その帯域でタイムスタンプが付加された送信データを送信する。また、送信部64は、各セグメントに付加したタイムスタンプをRTT演算部61に供給する。
The
受信部65は、送信部64により送信された送信データを受信する、通信装置20とインターネットを介して接続された他の通信装置(図示せず)から、送信データに対するACKを受信する。そして、受信部65は、受信したACKに付加されたタイムスタンプをRTT演算部61に供給する。
The receiving
また、受信部65は、送信データが送信されてから予め設定された所定の時間内に、その送信データに対する、前に受信したACKと重複しない正常なACKが受信されたかを判定する。そして、所定の時間内に正常なACKが受信されていないと判定された場合、受信部65は、輻輳を検出し、輻輳の検出を表す情報を状態判定部62に供給する。一方、所定の時間内に正常なACKが受信されたと判定された場合、受信部65は輻輳を検出しない。
The receiving
次に、図5のフローチャートを参照して、図4の通信部29による、輻輳ウィンドウcwndを決定する決定処理について説明する。この決定処理は、例えば、図2のCPU21から送信部64に送信データが供給されたとき、開始される。
Next, a determination process for determining the congestion window cwnd by the
ステップS11において、送信部64は、CPU21から供給された送信データに、セグメント単位でタイムスタンプを付加し、そのタイムスタンプをRTT演算部61に供給する。ステップS12において、送信部64は、輻輳ウィンドウ決定部63により決定された今回の輻輳ウィンドウcwndを用いて、インターネットの帯域を割り当て、その帯域でタイムスタンプを付加した送信データを他の通信装置に送信する。
In step S <b> 11, the
ステップS13において、受信部65は、ステップS12で送信された送信データに対するACKが受信されたかどうかを判定する。ステップS13でACKが受信されていないと判定された場合、ステップS14において、受信部65は、予め設定された所定の時間が経過したかどうかを判定する。ステップS14で所定の時間が経過していないと判定された場合、処理はステップS13に戻り、ACKが受信されるか、または、所定の時間が経過するまで、ステップS13およびS14の処理が繰り返される。
In step S13, the receiving
一方、ステップS14で所定の時間が経過したと判定された場合、即ち、タイムアウトが発生した場合、受信部65は、輻輳を検出して、輻輳の検出を表す情報を状態判定部62に供給する。そして、処理はステップS20に進む。
On the other hand, when it is determined in step S14 that the predetermined time has elapsed, that is, when a timeout occurs, the receiving
また、ステップS13でACKが受信されたと判定された場合、ステップS15において、受信部65は、受信したACKが正常なACKであるかどうか、即ち、前回受信したACKと重複しないACKであるかどうかを判定する。ステップS15で、受信したACKが正常なACKではないと判定された場合、受信部65は、輻輳を検出して、輻輳の検出を表す情報を状態判定部62に供給する。そして、処理はステップS20に進む。
If it is determined in step S13 that an ACK has been received, in step S15, the receiving
一方、ステップS15で、受信したACKが正常なACKであると判定された場合、受信部65は、輻輳を検出せず、受信したACKに付加されているタイムスタンプをRTT演算部61に供給する。そして、処理はステップS16に進む。ステップS16において、RTT演算部61は、ステップS11で送信部64から供給されたタイムスタンプと、ステップS15で受信部65から供給されたタイムスタンプとの差をRTTとして演算する。そして、RTT演算部61は、そのRTTを状態判定部62と輻輳ウィンドウ決定部63に供給する。
On the other hand, if it is determined in step S15 that the received ACK is a normal ACK, the receiving
ステップS17において、状態判定部62は、RTTの変動がないかどうか、即ち、RTT演算部61から供給された最新のRTTと、1つ前にRTT演算部61から供給されたRTTとの差がないかどうかを判定する。ステップS17でRTTの変動がないと判定された場合、ステップS18において、状態判定部62は、状態をブースト状態41にする。そして、状態判定部62は、現在の状態がブースト状態41であることを表す情報を、輻輳ウィンドウ決定部63に供給する。
In step S <b> 17, the
ステップS19において、輻輳ウィンドウ決定部63は、状態判定部62から供給される、現在の状態がブースト状態であることを表す情報に応じて、輻輳ウィンドウcwndを1セグメント分増加させる。そして、輻輳ウィンドウ決定部63は、その輻輳ウィンドウcwndを、今回の輻輳ウィンドウcwndとして記憶するとともに、送信部64に供給する。この今回の輻輳ウィンドウcwndは、次回のステップS12の処理で用いられる。
In step S19, the congestion
一方、ステップS17でRTTの変動があると判定された場合、処理はステップS20に進む。ステップS20において、状態判定部62は、状態を輻輳回避状態42にする。そして、状態判定部62は、現在の状態が輻輳回避状態42であることを表す情報を、輻輳ウィンドウ決定部63に供給する。
On the other hand, if it is determined in step S17 that there is a variation in RTT, the process proceeds to step S20. In step S <b> 20, the
ステップS21において、輻輳ウィンドウ決定部63は、現在の状態が輻輳回避状態42であることを表す情報に応じて、過去n回分と現在のRTTj、予め設定されている学習係数C、前回の重み係数w0とwi、および前回の輻輳ウィンドウcwndを用いて、上述した式(4)と式(5)にしたがって重み係数w0とw1を更新し、記憶する。
In step S21, the congestion
ステップS22において、輻輳ウィンドウ決定部63は、現在の状態が輻輳回避状態42であることを表す情報に応じて、記憶されている過去のn回分のRTTi、ステップS21で更新された重み係数w0およびwi、並びに、前回の輻輳ウィンドウcwndを用いて、上述した式(3)にしたがって輻輳ウィンドウcwnd´を予測する。そして、輻輳ウィンドウ決定部63は、その輻輳ウィンドウcwnd´を、今回の輻輳ウィンドウcwndとして記憶するとともに、送信部64に供給する。この今回の輻輳ウィンドウcwndは、次回のステップS12の処理で用いられる。
In step S22, the congestion
ステップS19またはS22の処理後、ステップS23において、送信部64は、CPU21から供給された全ての送信データを送信したかどうかを判定する。ステップS23で、まだ全ての送信データを送信していないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。一方、ステップS23で、全ての送信データを送信したと判定された場合、処理は終了する。
After step S19 or S22, in step S23, the
以下に、上述したTCP Saltによる通信の動作について、シミュレーション結果を用いて説明する。このシミュレーションは、TCP Saltにおける学習係数Cを0.6とし、RTTの履歴の数であるnを5として、ネットワークシミュレータNS-2を用いて行われる。 Hereinafter, the operation of communication using the above-described TCP Salt will be described using simulation results. This simulation is performed using the network simulator NS-2, where the learning coefficient C in TCP Salt is 0.6 and n, which is the number of RTT histories, is 5.
まず最初に、第1のシミュレーションについて説明する。 First, the first simulation will be described.
図6は、第1のシミュレーションのネットワークトポロジを示している。 FIG. 6 shows the network topology of the first simulation.
図6のネットワークトポロジでは、2つの中間ノード81と82を挟んで、2つの別々のノードであるノード80およびノード84と、2つの別々のノードであるノード83およびノード85が接続されている。そして、UDP(User Datagram Protocol)に準拠してデータが、ノード80から中間ノード81と82を通ってノード83へ流され、TCP SaltまたはTCP Renoに準拠してデータが、ノード84から中間ノード81と82を通ってノード85へ流される。
In the network topology of FIG. 6, two separate nodes, a
なお、TCP SaltとTCP Renoのデータフローに対する受信端末はTCP Sinkであり、TCP SaltおよびTCP Renoの最大のウィンドウサイズは33セグメントである。このことは、後述するシミュレーションでも同様である。 Note that the receiving terminal for TCP Salt and TCP Reno data flows is TCP Sink, and the maximum window size of TCP Salt and TCP Reno is 33 segments. This is the same in the simulation described later.
また、図6のネットワークトポロジでは、全帯域が100Mbpsとなっており、ノード80から中間ノード81への流れ、ノード84から中間ノード81への流れ、中間ノード82からノード83への流れ、および中間ノード82からノード85への流れによって、データに5msの遅延が発生する。さらに、中間ノード81から中間ノード82への流れによって、データに40msの遅延が発生する。
Further, in the network topology of FIG. 6, the total bandwidth is 100 Mbps, the flow from the
第1のシミュレーションでは、100Mbpsの全帯域のうち、UDPに準拠したデータフロー(以下、UDPフローという)によって98.5Mbpsの帯域を圧迫した状態で、TCP SaltまたはTCP Renoに準拠してデータが流される。詳細には、第1のシミュレーションが開始されてから4秒後にUDPフローが開始され、5秒後にTCP SaltまたはTCP Renoに準拠したデータフロー(以下、TCP SaltフローまたはTCP Renoフローという)が開始される。そして、50秒後にTCP SaltフローまたはTCP Renoフローが、51秒後にUDPフローが、55秒後に第1のシミュレーション自体が、停止される。 In the first simulation, out of the total bandwidth of 100 Mbps, data flows in compliance with TCP Salt or TCP Reno with the 98.5 Mbps bandwidth being compressed by a UDP-compliant data flow (hereinafter referred to as UDP flow). . Specifically, a UDP flow is started 4 seconds after the first simulation is started, and a data flow conforming to TCP Salt or TCP Reno (hereinafter referred to as TCP Salt flow or TCP Reno flow) is started 5 seconds later. The Then, the TCP Salt flow or the TCP Reno flow is stopped after 50 seconds, the UDP flow is stopped after 51 seconds, and the first simulation itself is stopped after 55 seconds.
次に、図7乃至図9を参照して、第1のシミュレーションの結果について説明する。 Next, the result of the first simulation will be described with reference to FIGS.
図7は、第1のシミュレーションのTCP SaltフローとTCP Renoフローにおける、輻輳ウィンドウcwndの時間変化を示すグラフである。なお、図7において、横軸は第1のシミュレーションを開始してからの時間(sec)を表し、縦軸は輻輳ウィンドウcwnd(セグメント)を表している。 FIG. 7 is a graph showing temporal changes in the congestion window cwnd in the TCP Salt flow and TCP Reno flow in the first simulation. In FIG. 7, the horizontal axis represents the time (sec) from the start of the first simulation, and the vertical axis represents the congestion window cwnd (segment).
図7に示すように、TCP Saltフローでは、ブースト状態41から輻輳回避状態42に最初に遷移したときに輻輳ウィンドウcwndが減少し、それ以降、比較的大きい値に徐々に収束していく。即ち、輻輳回避状態42に最初に遷移したときには、まだ重み係数w0およびwiが学習されていないため、TCP Saltフローでは、輻輳ウィンドウcwndを正確に予測することができないが、その後、徐々に重み係数w0およびwiが学習されていくので、その重み係数w0およびwiを用いて、輻輳ウィンドウcwndを正確に予測することが可能となる。その結果、輻輳ウィンドウcwndは徐々に収束していく。
As shown in FIG. 7, in the TCP Salt flow, the congestion window cwnd decreases when the
これに対して、TCP Renoフローでは、図7に示すように、スロースタート状態11から輻輳回避状態12に最初に遷移した後も、一定周期で輻輳ウィンドウcwndが減少する。即ち、TCP Renoフローでは、輻輳ウィンドウcwndを減少させることができないため、UDPフローによる圧迫で輻輳が発生し、その輻輳が検出されるたびに、輻輳ウィンドウcwndが減少する。
On the other hand, in the TCP Reno flow, as shown in FIG. 7, the congestion window cwnd decreases at a constant cycle even after the first transition from the
図8は、第1のシミュレーションのTCP SaltフローとTCP Renoフローにおける、スループットの時間変化を示すグラフである。なお、図8において、横軸は第1のシミュレーションを開始してからの時間(sec)を表し、縦軸はスループット(Mbps)を表している。 FIG. 8 is a graph showing changes in throughput over time in the TCP Salt flow and TCP Reno flow in the first simulation. In FIG. 8, the horizontal axis represents time (sec) after the first simulation is started, and the vertical axis represents throughput (Mbps).
図8に示すように、TCP Saltフローでは、ブースト状態41から輻輳回避状態42に最初に遷移したときにのみスループットが低下するだけで、それ以降は、スループットが、利用可能帯域の最大限の値である、1.5Mbps付近で安定する。これにより、TCP Saltフローでは、最適な輻輳ウィンドウcwndを予測することができていることがわかる。
As shown in FIG. 8, in the TCP Salt flow, the throughput is reduced only when the
これに対して、図8に示すように、TCP Renoフローでは、スロースタート状態11から輻輳回避状態12に最初に遷移した後も、何回もスループットが低下している。即ち、図7で示したように、TCP Renoフローでは、UDPフローの圧迫によって輻輳が発生するたびに、輻輳ウィンドウcwndが低下するので、スループットも低下する。
On the other hand, as shown in FIG. 8, in the TCP Reno flow, the throughput decreases many times after the first transition from the
図9は、第1のシミュレーションのTCP SaltフローとTCP Renoフローにおける、平均スループット、最大スループット、および転送データ量を表している。 FIG. 9 shows average throughput, maximum throughput, and transfer data amount in the TCP Salt flow and TCP Reno flow of the first simulation.
図9に示すように、TCP Renoフローの平均スループットは、1.084Mbpsであり、TCP Saltフローの平均スループットは、1.428である。従って、TCP Renoフローに対するTCP Saltフローの平均スループットの改善率は31.7%である。 As shown in FIG. 9, the average throughput of the TCP Reno flow is 1.084 Mbps, and the average throughput of the TCP Salt flow is 1.428. Therefore, the improvement rate of the average throughput of the TCP Salt flow with respect to the TCP Reno flow is 31.7%.
また、図9に示すように、TCP Renoフローの最大スループットは、2.030Mbpsであり、TCP Saltフローの最大スループットは、TCP Renoフローの場合と同一の2.030Mbpsである。従って、TCP Renoフローに対するTCP Saltフローの最大スループットの改善率は0.0%である。 As shown in FIG. 9, the maximum throughput of the TCP Reno flow is 2.030 Mbps, and the maximum throughput of the TCP Salt flow is 2.030 Mbps, which is the same as that of the TCP Reno flow. Therefore, the improvement rate of the maximum throughput of the TCP Salt flow with respect to the TCP Reno flow is 0.0%.
さらに、図9に示すように、TCP Renoフローの転送データ量は、6.096Mbであり、TCP Saltフローの転送データ量は、8.030Mbである。従って、TCP Renoフローに対するTCP Saltフローの転送データ量の改善率は31.7%である。 Further, as shown in FIG. 9, the transfer data amount of the TCP Reno flow is 6.096 Mb, and the transfer data amount of the TCP Salt flow is 8.030 Mb. Therefore, the improvement rate of the transfer data amount of the TCP Salt flow with respect to the TCP Reno flow is 31.7%.
以上により、第1のシミュレーションでは、TCP Saltフローにおける平均スループットと転送データ量が、TCP Renoフローに比べて改善されることがわかる。 As described above, in the first simulation, it can be seen that the average throughput and the amount of transfer data in the TCP Salt flow are improved as compared with the TCP Reno flow.
次に、第2のシミュレーションについて説明する。 Next, the second simulation will be described.
第2のシミュレーションのネットワークトポロジは、図6に示した第1のシミュレーションのネットワークトポロジと同一であるので、説明は省略する。なお、第2のシミュレーションでは、第1のシミュレーションと異なり、UDPフローにより圧迫される帯域が常に98.5Mbpsであるのではなく、第2のシミュレーションが開始されてから20秒後から35秒後までの15秒間、UDPフローにより圧迫される帯域が50Mbpsに低下する。 The network topology of the second simulation is the same as the network topology of the first simulation shown in FIG. In the second simulation, unlike the first simulation, the bandwidth pressed by the UDP flow is not always 98.5 Mbps, but from 20 seconds to 35 seconds after the start of the second simulation. For 15 seconds, the bandwidth squeezed by the UDP flow drops to 50 Mbps.
図10は、第2のシミュレーションのTCP SaltフローとTCP Renoフローにおける、スループットの時間変化について説明する。なお、図10において、横軸は第2のシミュレーションを開始してからの時間(sec)を表し、縦軸はスループット(Mbps)を表している。 FIG. 10 illustrates a time change of the throughput in the TCP Salt flow and the TCP Reno flow in the second simulation. In FIG. 10, the horizontal axis represents time (sec) since the start of the second simulation, and the vertical axis represents throughput (Mbps).
図10に示すように、TCP Saltフローでは、TCP Renoフローに比べて、圧迫された帯域が低下する、第2のシミュレーションを開始してから20秒後に、即座にスループットが向上する。これは、UDPフローにより圧迫される帯域が低下し、TCP Saltフローの利用可能帯域が増加することによって、RTTの変動がなくなるため、TCP Saltフローでは、即座に状態が輻輳回避状態42からブースト状態41に遷移し、輻輳ウィンドウcwndの増加速度が大きくなるためである。
As shown in FIG. 10, in the TCP Salt flow, compared to the TCP Reno flow, the compressed bandwidth is reduced. The throughput is immediately improved 20 seconds after the second simulation is started. This is because the bandwidth that is compressed by the UDP flow decreases and the available bandwidth of the TCP Salt flow increases, so the RTT does not fluctuate. Therefore, in the TCP Salt flow, the state immediately changes from the
これに対して、TCP Renoフローでは、状態が輻輳回避状態12のままであるため、輻輳ウィンドウcwndの増加速度が、TCP Saltフローに比べて小さい。
On the other hand, in the TCP Reno flow, the state remains the
以上のように、TCP Saltフローでは、RTTの変動により、現在の帯域の状態が把握されるので、TCP Renoフローと比較して、圧迫される帯域の変化に迅速に反応することができる。 As described above, in the TCP Salt flow, the state of the current band is grasped by the fluctuation of RTT, so that it is possible to react more quickly to a change in the compressed band than in the TCP Reno flow.
また、TCP SaltフローとTCP Renoフローでは、圧迫された帯域が低下している第2のシミュレーションを開始してから20秒後から35秒までの15秒間、スループットは2.75Mbps付近で安定する。このとき、TCP SaltフローとTCP Renoフローのスループットは、利用可能な50Mbpsの帯域よりも小さいので、輻輳は発生しない。 In addition, in the TCP Salt flow and the TCP Reno flow, the throughput stabilizes around 2.75 Mbps for 15 seconds from 20 seconds to 35 seconds after starting the second simulation in which the compressed bandwidth is reduced. At this time, the throughput of the TCP Salt flow and the TCP Reno flow is smaller than the available 50 Mbps bandwidth, and thus congestion does not occur.
なお、第2のシミュレーションが開始されてから20秒後から35秒後までの15秒間ではなく、20秒後付近でTCP Renoフローのスループットが一番低下している18秒後から、33秒後までの15秒間、UDPフローにより圧迫される帯域が50Mbpsに低下すると、図11に示すように、圧迫される帯域の変化への反応の速さの差は、さらに顕著になる。 In addition, it is not 15 seconds from 20 seconds to 35 seconds after the start of the second simulation, but 33 seconds after 18 seconds when the throughput of TCP Reno flow has dropped most around 20 seconds. When the band compressed by the UDP flow is reduced to 50 Mbps for 15 seconds until, the difference in the response speed to the change of the compressed band becomes more remarkable as shown in FIG.
次に、第3のシミュレーションについて説明する。 Next, the third simulation will be described.
図12は、第3のシミュレーションのネットワークトポロジを示している。 FIG. 12 shows the network topology of the third simulation.
図12のネットワークトポロジでは、2つの中間ノード101と102を挟んで、2つの別々のノードであるノード100およびノード104と、2つの別々のノードであるノード103およびノード105が接続されている。そして、第1のTCPのいずれかのバージョンに準拠したフロー(以下、TCPフローという)として、TCP SaltまたはTCP Renoに準拠して、ノード100から中間ノード101と102を通ってノード103へデータが流され、第2のTCPフローとして、TCP SaltフローまたはTCP Renoフローが、ノード104から中間ノード101と102を通ってノード105へ流される。
In the network topology of FIG. 12, two separate nodes,
なお、図12のネットワークトポロジでは、中間ノード101と102間の帯域が2.5Mbpsとなっており、それ以外の帯域が100Mbpsとなっている。また、ノード100から中間ノード101への流れ、ノード104から中間ノード101への流れ、中間ノード102からノード103への流れ、および中間ノード102からノード105への流れによって、データに5msの遅延が発生する。さらに、中間ノード101から中間ノード102への流れによって、データに40msの遅延が発生する。
In the network topology of FIG. 12, the bandwidth between the
第3のシミュレーションでは、第1のTCPフローおよび第2のTCPフローが、TCP Saltフローである。詳細には、第1のシミュレーションが開始されてから1秒後に第1のTCPフローとしての第1のTCP Saltフローが開始され、5秒後に第2のTCPフローとしての第2のTCP Saltフローが開始される。そして、45秒後に第1のTCP Saltフローが、50秒後に第2のTCP Saltフローが、55秒後に第3のシミュレーション自体が、停止される。 In the third simulation, the first TCP flow and the second TCP flow are TCP Salt flows. Specifically, the first TCP Salt flow as the first TCP flow is started 1 second after the first simulation is started, and the second TCP Salt flow as the second TCP flow is started 5 seconds later. Be started. Then, the first TCP Salt flow is stopped after 45 seconds, the second TCP Salt flow is stopped after 50 seconds, and the third simulation itself is stopped after 55 seconds.
図13は、第3のシミュレーションの第1および第2のTCP Saltフローにおける、スループットの時間変化を示すグラフである。なお、図13において、横軸は第3のシミュレーションを開始してからの時間(sec)を表し、縦軸はスループット(Mbps)を表している。 FIG. 13 is a graph showing changes in throughput over time in the first and second TCP Salt flows of the third simulation. In FIG. 13, the horizontal axis represents the time (sec) after the start of the third simulation, and the vertical axis represents the throughput (Mbps).
図13に示すように、第1のTCP Saltフローが開始される1秒後から、第2のTCP Saltフローが開始される5秒後までの間、第1のTCPフローでは、スループットが2.5Mbpsとなっており、利用可能帯域が最大限利用されている。 As shown in FIG. 13, the first TCP flow has a throughput of 2.5 Mbps from 1 second after the start of the first TCP Salt flow to 5 seconds after the start of the second TCP Salt flow. The available bandwidth is utilized to the maximum extent.
また、同様に、第1のTCP Saltフローが停止される45秒後から、第2のTCP Saltフローが停止される50秒後までの間、第2のTCP Saltフローでは、スループットが2.5Mbpsとなっており、利用可能帯域が最大限利用されている。 Similarly, the throughput of the second TCP Salt flow is 2.5 Mbps from 45 seconds after the first TCP Salt flow is stopped to 50 seconds after the second TCP Salt flow is stopped. The available bandwidth is utilized to the maximum extent.
さらに、第1と第2のTCP Saltフローが両方行われている、5秒後から45秒後までの間、図13に示すように、多少の変動はあるものの、利用可能帯域は公平に利用されている。即ち、TCP Saltフローどうしが帯域を共有した場合、利用可能帯域が公平に利用される。 Furthermore, as shown in FIG. 13, the available bandwidth is used fairly even though there are some fluctuations from 5 seconds to 45 seconds after both the first and second TCP Salt flows are performed. Has been. That is, when TCP Salt flows share a bandwidth, the available bandwidth is used fairly.
次に、第4のシミュレーションについて説明する。 Next, the fourth simulation will be described.
第4のシミュレーションのネットワークトポロジは、図12に示した第3のシミュレーションのネットワークトポロジと同一であるので、説明は省略する。なお、第4のシミュレーションでは、第3のシミュレーションと異なり、第2のTCPフローとして、TCP Renoに準拠してデータが流される。即ち、第4のシミュレーションでは、第1のTCPフローが、TCP Saltフローであり、第2のTCPフローが、TCP Renoフローである。 The network topology of the fourth simulation is the same as the network topology of the third simulation shown in FIG. Note that, in the fourth simulation, unlike the third simulation, data flows as the second TCP flow in conformity with TCP Reno. That is, in the fourth simulation, the first TCP flow is a TCP Salt flow, and the second TCP flow is a TCP Reno flow.
図14は、第4のシミュレーションのTCP SaltフローおよびTCP Renoフローにおける、スループットの時間変化を示すグラフである。なお、図14において、横軸は第4のシミュレーションを開始してからの時間(sec)を表し、縦軸はスループット(Mbps)を表している。 FIG. 14 is a graph showing changes in throughput over time in the TCP Salt flow and TCP Reno flow of the fourth simulation. In FIG. 14, the horizontal axis represents the time (sec) since the start of the fourth simulation, and the vertical axis represents the throughput (Mbps).
図14に示すように、TCP Saltフローが開始される1秒後から、TCP Renoフローが開始される5秒後までの間、TCP Saltフローでは、スループットが2.5Mbpsとなっており、利用可能帯域が最大限利用されている。 As shown in FIG. 14, the TCP Salt flow has a throughput of 2.5 Mbps from 1 second after the start of the TCP Salt flow to 5 seconds after the start of the TCP Reno flow. Is used to the maximum.
また、同様に、TCP Saltフローが停止される45秒後から、TCP Renoフローが停止される50秒後までの間、TCP Renoフローでは、スループットが2.5Mbpsとなっており、利用可能帯域が最大限利用されている。 Similarly, from 45 seconds after the TCP Salt flow is stopped to 50 seconds after the TCP Reno flow is stopped, the TCP Reno flow has a throughput of 2.5 Mbps and the maximum available bandwidth Limited use.
さらに、TCP SaltフローとTCP Renoフローが両方行われている、5秒後から45秒後までの間、図14に示すように、多少の変動はあるものの、利用可能帯域は公平に利用されている。即ち、TCP SaltフローとTCP Renoフローが帯域を共有した場合にも、利用可能帯域が公平に利用される。 Furthermore, between 5 seconds and 45 seconds after both TCP Salt flow and TCP Reno flow are performed, as shown in FIG. 14, the available bandwidth is used fairly even though there is some variation. Yes. That is, even when the TCP Salt flow and the TCP Reno flow share a bandwidth, the available bandwidth is used fairly.
以上の第1乃至第4のシミュレーションにより、TCP Saltフローでは、他のコネクションとの利用帯域の公平性を保持しつつ、利用可能帯域を十分に利用することができることがわかる。また、TCP Saltフローでは、利用可能帯域の変化に迅速に対応することができることがわかる。 From the above first to fourth simulations, it is understood that the available bandwidth can be sufficiently used in the TCP Salt flow while maintaining the fairness of the bandwidth used with other connections. It can also be seen that the TCP Salt flow can quickly respond to changes in the available bandwidth.
次に、TCP Saltにおいて輻輳ウィンドウcwnd´の予測時に用いられる重み係数w0とwiの推移について、シミュレーション結果を用いて説明する。 Next, transition of the weighting factors w 0 and w i used when predicting the congestion window cwnd ′ in TCP Salt will be described using simulation results.
まず最初に、図15を参照して、第1のシミュレーション中の重み係数w0乃至w5の推移について説明する。なお、図15において、横軸は、第1のシミュレーションを開始してからの時間(sec)を表し、縦軸は重み係数w0乃至w5の値を表している。このことは、後述する図16においても同様である。 First, the transition of the weighting factors w 0 to w 5 during the first simulation will be described with reference to FIG. In FIG. 15, the horizontal axis represents the time (sec) from the start of the first simulation, and the vertical axis represents the values of the weighting factors w 0 to w 5 . The same applies to FIG. 16 described later.
図15に示すように、第1のシミュレーションにおいて、重み係数w0乃至w5は、一定時間で収束していく。また、第1のシミュレーションでは、直近の過去のIRTT1に対する重み係数w1が一番大きく、前回の輻輳ウィンドウcwndに対する重み係数w0はあまり大きくない。 As shown in FIG. 15, in the first simulation, the weighting factors w 0 to w 5 converge at a constant time. In addition, in the first simulation, a large weighting factor w 1 for the most recent past of IRTT 1 is the best, the weighting factor w 0 for the last time of the congestion window cwnd is not very large.
次に、図16は、第2のシミュレーション中の重み係数w0乃至w5の推移を示している。なお、図16において、第2のシミュレーションは、第2のシミュレーションが開始されてから20秒後から35秒後までの15秒間、UDPフローにより圧迫される帯域が50Mbpsに低下するものである。 Next, FIG. 16 shows the transition of the weighting factors w 0 to w 5 during the second simulation. In FIG. 16, in the second simulation, the bandwidth pressed by the UDP flow is reduced to 50 Mbps for 15 seconds from 20 seconds to 35 seconds after the second simulation is started.
上述したように、第2のシミュレーションにおいて、UDPフローにより圧迫される帯域が50Mbpsに低下する20秒後から35秒後までの15秒間、輻輳は発生せず、TCP Saltフローでは、ブースト状態41が維持されるので、図16に示すように、重み係数w0乃至w5は変化しない。また、第2のシミュレーションでは、第1のシミュレーションと同様に、直近の過去のIRTT1に対する重み係数w1が一番大きく、前回の輻輳ウィンドウcwndに対する重み係数w0はあまり大きくない。
As described above, in the second simulation, congestion does not occur for 15 seconds from 20 seconds to 35 seconds after the bandwidth compressed by the UDP flow is reduced to 50 Mbps, and the
以上のように、輻輳ウィンドウcwndに対する重み係数w0は、あまり大きくない。従って、以下に、輻輳ウィンドウcwnd´の予測時に用いられる前回の輻輳ウィンドウcwndの必要性について、シミュレーション結果を用いて説明する。 As described above, the weighting factor w 0 for the congestion window cwnd is not so large. Therefore, the necessity of the previous congestion window cwnd used when the congestion window cwnd ′ is predicted will be described below using simulation results.
まず最初に、第5のシミュレーションについて説明する。 First, the fifth simulation will be described.
第5のシミュレーションは、第1のシミュレーションにおいて、TCP SaltフローまたはTCP Renoフローではなく、TCP Saltの第1または第2の変形に準拠したフロー(以下、第1変形TCP Saltフローまたは第2変形TCP Saltフローという)もしくはTCP Saltフローを用いたものである。 The fifth simulation is not a TCP Salt flow or a TCP Reno flow in the first simulation, but a flow conforming to the first or second modification of the TCP Salt (hereinafter referred to as a first modified TCP Salt flow or a second modified TCP). (Salt flow) or TCP Salt flow.
ここで、TCP Saltの第1の変形とは、TCP Saltにおいて重み係数w0を0とし、RTTの履歴の数であるnを5としたものであり、第2の変形とは、TCP Saltにおいて重み係数w0を0とし、nを6としたものである。 Here, the first modification of TCP Salt is one in which the weight coefficient w 0 is set to 0 in TCP Salt and n, which is the number of RTT histories, is set to 5, and the second modification is in TCP Salt. The weight coefficient w 0 is 0 and n is 6.
図17は、第5のシミュレーションの第1変形TCP Saltフロー、第2変形TCP Saltフロー、およびTCP Saltフローにおける、スループットの時間変化を示すグラフである。なお、図17において、横軸は第5のシミュレーションを開始してからの時間(sec)を表し、縦軸はスループット(Mbps)を表している。 FIG. 17 is a graph showing changes in throughput over time in the first modified TCP Salt flow, the second modified TCP Salt flow, and the TCP Salt flow of the fifth simulation. In FIG. 17, the horizontal axis represents time (sec) since the start of the fifth simulation, and the vertical axis represents throughput (Mbps).
図17に示すように、第5のシミュレーションでは、第1変形TCP Saltフロー、第2変形TCP Saltフロー、およびTCP Saltフローにおけるスループットの差はない。 As shown in FIG. 17, in the fifth simulation, there is no difference in throughput between the first modified TCP Salt flow, the second modified TCP Salt flow, and the TCP Salt flow.
次に、第6のシミュレーションについて説明する。 Next, the sixth simulation will be described.
第6のシミュレーションは、第2のシミュレーションにおいて、TCP SaltフローまたはTCP Renoフローではなく、第1変形TCP Saltフロー、第2変形TCP Saltフロー、またはTCP Saltフローを用いたものである。 The sixth simulation uses the first modified TCP Salt flow, the second modified TCP Salt flow, or the TCP Salt flow instead of the TCP Salt flow or the TCP Reno flow in the second simulation.
図18は、第6のシミュレーションの第1変形TCP Saltフロー、第2変形TCP Saltフロー、およびTCP Saltフローにおける、スループットの時間変化を示すグラフである。なお、図18において、横軸は第6のシミュレーションを開始してからの時間(sec)を表し、縦軸はスループット(Mbps)を表している。 FIG. 18 is a graph showing changes in throughput over time in the first modified TCP Salt flow, the second modified TCP Salt flow, and the TCP Salt flow of the sixth simulation. In FIG. 18, the horizontal axis represents time (sec) after the sixth simulation is started, and the vertical axis represents throughput (Mbps).
図18に示すように、第6のシミュレーションにおいても、第1変形TCP Saltフロー、第2変形TCP Saltフロー、およびTCP Saltフローにおけるスループットの差はない。 As shown in FIG. 18, even in the sixth simulation, there is no difference in throughput between the first modified TCP Salt flow, the second modified TCP Salt flow, and the TCP Salt flow.
次に、第7のシミュレーションについて説明する。 Next, the seventh simulation will be described.
図19は、第7のシミュレーションのネットワークトポロジを示している。 FIG. 19 shows a network topology of the seventh simulation.
図19のネットワークトポロジでは、2つの中間ノード121と122を挟んで、3つの別々のノードであるノード120、ノード124、およびノード126と、3つの別々のノードであるノード123、ノード125、およびノード127が接続されている。
In the network topology of FIG. 19, three separate nodes,
また、UDPフローとして、UDPに準拠して、ノード120から中間ノード121と122を通ってノード123へデータが流され、第1のTCPフローとして、TCP Reno、TCP Vegas、TCP Saltの第1変形、TCP Saltの第2変形、またはTCP Saltに準拠して、ノード124から中間ノード121と122を通ってノード125へデータが流される。さらに、第2のTCPフローとして、TCP Reno、TCP Vegas、TCP Saltの第1変形、TCP Saltの第2変形、またはTCP Saltに準拠して、ノード126から中間ノード121と122を通ってノード127へデータが流される。
As a UDP flow, in accordance with UDP, data flows from the
なお、図19のネットワークトポロジでは、全帯域が100Mbpsとなっている。また、ノード120から中間ノード121への流れ、ノード124から中間ノード121への流れ、ノード126から中間ノード121への流れ、中間ノード122からノード123への流れ、中間ノード122からノード125への流れ、および中間ノード122からノード127への流れによって、データに5msの遅延が発生する。さらに、中間ノード121から中間ノード122への流れによって、データに40msの遅延が発生する。
In the network topology of FIG. 19, the entire band is 100 Mbps. Also, the flow from the
第7のシミュレーションでは、第1のTCPフローおよび第2のTCPフローが、TCP Renoフローである。 In the seventh simulation, the first TCP flow and the second TCP flow are TCP Reno flows.
図20は、第7のシミュレーションの第1および第2のTCP Renoフローにおける、スループットの時間変化を示すグラフである。なお、図20において、横軸は第7のシミュレーションを開始してからの時間(sec)を表し、縦軸はスループット(Mbps)を表している。 FIG. 20 is a graph showing changes in throughput over time in the first and second TCP Reno flows of the seventh simulation. In FIG. 20, the horizontal axis represents time (sec) since the start of the seventh simulation, and the vertical axis represents throughput (Mbps).
図20に示すように、第7のシミュレーションでは、第1のTCP Renoフローにおけるスループットを表す実線と、第2のTCP Renoフローにおけるスループットを表す点線があまり重なっていない。即ち、TCP Renoフローどうしが帯域を共有した場合、利用可能帯域は公平に利用されない。 As shown in FIG. 20, in the seventh simulation, the solid line representing the throughput in the first TCP Reno flow and the dotted line representing the throughput in the second TCP Reno flow do not overlap very much. That is, when TCP Reno flows share a bandwidth, the available bandwidth is not used fairly.
次に、第8乃至第15のシミュレーションについて説明する。 Next, the eighth to fifteenth simulations will be described.
第8乃至第15のシミュレーションのネットワークトポロジは、図19に示した第7のシミュレーションのネットワークトポロジと同一であるので、説明は省略する。なお、第8のシミュレーションでは、第7のシミュレーションと異なり、第1および第2のTCPフローが、TCP Vegasに準拠したデータフロー(以下、TCP Vegasフローという)である。 The network topologies of the eighth to fifteenth simulations are the same as the network topology of the seventh simulation shown in FIG. In the eighth simulation, unlike the seventh simulation, the first and second TCP flows are data flows compliant with TCP Vegas (hereinafter referred to as TCP Vegas flows).
図21は、第8のシミュレーションの第1および第2のTCP Vegasフローにおける、スループットの時間変化を示すグラフである。 FIG. 21 is a graph showing changes in throughput over time in the first and second TCP Vegas flows of the eighth simulation.
図21に示すように、第8のシミュレーションでは、第1のTCP Vegasフローと第2のTCP Vegasフローのうち、最初に開始した方が帯域の利用において優位になる。即ち、TCP Vegasフローどうしが帯域を共有した場合、利用可能帯域は公平に利用されない。 As shown in FIG. 21, in the eighth simulation, of the first TCP Vegas flow and the second TCP Vegas flow, the one that starts first has an advantage in bandwidth utilization. That is, when TCP Vegas flows share a bandwidth, the available bandwidth is not used fairly.
次に、第9乃至第11のシミュレーションについて説明する。 Next, the ninth to eleventh simulations will be described.
第9のシミュレーションでは、第1および第2のTCPフローが、第1変形TCP Saltフローであり、第10のシミュレーションでは、第2変形TCP Saltフロー、第11のシミュレーションでは、TCP Saltフローである。 In the ninth simulation, the first and second TCP flows are the first modified TCP Salt flow, in the tenth simulation, the second modified TCP Salt flow, and in the eleventh simulation, the TCP Salt flow.
図22乃至図24は、第9乃至第11のシミュレーションの第1および第2の第1変形TCP Saltフロー、第1および第2の第2変形TCP Saltフロー、並びに第1および第2のTCP Saltフローのそれぞれにおける、スループットの時間変化を示すグラフである。 22 to 24 show the first and second first modified TCP Salt flows, the first and second modified TCP Salt flows, and the first and second TCP Salts of the ninth to eleventh simulations. It is a graph which shows the time change of the throughput in each of the flows.
図22乃至図24に示すように、第11のシミュレーション、第9のシミュレーション、第10のシミュレーションの順に、帯域利用の公平性が高い。即ち、TCP Saltフローどうしが帯域を共有した場合が最も公平性が高く、第1変形TCP Saltフローどうしが帯域を共有した場合が、その次に公平性が高く、第2変形TCP Saltフローどうしが帯域を共有した場合が、最も公平性が低い。 As shown in FIGS. 22 to 24, the fairness of band utilization is high in the order of the eleventh simulation, the ninth simulation, and the tenth simulation. That is, the fairness is the highest when the TCP Salt flows share the bandwidth, and the fairness is the second highest when the first modified TCP Salt flows share the bandwidth, and the second modified TCP Salt flows Sharing bandwidth is the least fair.
次に、第12乃至第14のシミュレーションについて説明する。 Next, the twelfth to fourteenth simulations will be described.
第12のシミュレーションでは、第1のTCPフローが、第1変形TCP Saltフローであり、第13のシミュレーションでは、第2変形TCP Saltフローであり、第14のシミュレーションでは、TCP Saltフローである。また、第12乃至第14のシミュレーションでは、第2のTCPフローが、TCP Renoフローである。 In the twelfth simulation, the first TCP flow is the first modified TCP Salt flow, in the thirteenth simulation, the second modified TCP Salt flow, and in the fourteenth simulation, the TCP Salt flow. In the twelfth to fourteenth simulations, the second TCP flow is a TCP Reno flow.
図25乃至図27は、第12乃至第14のシミュレーションの、第1変形TCP Saltフロー、第2変形TCP Saltフロー、およびTCP Saltフローのそれぞれと、TCP Renoフローにおける、スループットの時間変化を示すグラフである。 FIGS. 25 to 27 are graphs showing temporal changes in throughput in the first modified TCP Salt flow, the second modified TCP Salt flow, and the TCP Salt flow and the TCP Reno flow in the twelfth to fourteenth simulations. It is.
図25に示すように、第12のシミュレーションでは、第1変形TCP Saltフローの方が、TCP Renoフローに比べて、帯域利用において優位になっている。また、図26に示すように、第13のシミュレーションでは、第1変形TCP Saltフローと同様に、第2変形TCP Saltフローの方が、TCP Renoフローに比べて、帯域利用において優位になっている。さらに、図27に示すように、第14のシミュレーションでは、TCP SaltフローとTCP Renoフローの利用帯域がほぼ公平になっている。 As shown in FIG. 25, in the twelfth simulation, the first modified TCP Salt flow is superior in bandwidth utilization compared to the TCP Reno flow. Also, as shown in FIG. 26, in the thirteenth simulation, the second modified TCP Salt flow is superior in bandwidth utilization compared to the TCP Reno flow, as in the first modified TCP Salt flow. . Furthermore, as shown in FIG. 27, in the fourteenth simulation, the bandwidths used for the TCP Salt flow and the TCP Reno flow are almost fair.
次に、第15のシミュレーションについて説明する。 Next, the fifteenth simulation will be described.
第15のシミュレーションでは、第1のTCPフローが、TCP Vegasフローであり、第2のTCPフローが、TCP Renoフローである。 In the fifteenth simulation, the first TCP flow is a TCP Vegas flow, and the second TCP flow is a TCP Reno flow.
図28は、第15のシミュレーションのTCP VegasフローとTCP Renoフローにおける、スループットの時間変化を示すグラフである。 FIG. 28 is a graph showing changes in throughput over time in the TCP Vegas flow and TCP Reno flow of the fifteenth simulation.
図28に示すように、第15のシミュレーションでは、TCP VegasフローとTCP Renoフローの利用帯域の公平性は比較的良いが、TCP VegasフローとTCP Renoフローにおけるスループットが小さい。 As shown in FIG. 28, in the fifteenth simulation, the fairness of the used bandwidth of the TCP Vegas flow and the TCP Reno flow is relatively good, but the throughput in the TCP Vegas flow and the TCP Reno flow is small.
図29は、第7、第8、および第15のシミュレーションにおける転送量(byte)を示す表であり、図30は、第9乃至第11のシミュレーションにおける転送量(byte)を示す表である。また、図31は、第12乃至第14のシミュレーションにおける転送量(byte)を示す表である。さらに、図32は、第7乃至第15のシミュレーションにおける転送量(byte)を表すグラフである。 FIG. 29 is a table showing transfer amounts (bytes) in the seventh, eighth, and fifteenth simulations, and FIG. 30 is a table showing transfer amounts (bytes) in the ninth to eleventh simulations. FIG. 31 is a table showing transfer amounts (bytes) in the twelfth to fourteenth simulations. Further, FIG. 32 is a graph showing the transfer amount (byte) in the seventh to fifteenth simulations.
図29に示すように、第7のシミュレーションでは、第1のTCPフローとしてのTCP Renoフローにおける転送量が3410バイトであり、第2のTCPフローとしてのTCP Renoフローにおける転送量が4104バイトである。従って、図29や図32に示すように、第7のシミュレーションでは、第1のTCPフローと第2のTCPフローにおける転送量の和が7514バイトであり、差の絶対値が694である。 As shown in FIG. 29, in the seventh simulation, the transfer amount in the TCP Reno flow as the first TCP flow is 3410 bytes, and the transfer amount in the TCP Reno flow as the second TCP flow is 4104 bytes. . Therefore, as shown in FIGS. 29 and 32, in the seventh simulation, the sum of the transfer amounts in the first TCP flow and the second TCP flow is 7514 bytes, and the absolute value of the difference is 694.
第8のシミュレーションでは、図29に示すように、第1のTCPフローとしてのTCP Vegasフローにおける転送量が7851バイトであり、第2のTCPフローとしてのTCP Vegasフローにおける転送量が2176バイトである。従って、図29や図32に示すように、第8のシミュレーションでは、第1のTCPフローと第2のTCPフローにおける転送量の和が10027バイトであり、差の絶対値が5675である。 In the eighth simulation, as shown in FIG. 29, the transfer amount in the TCP Vegas flow as the first TCP flow is 7851 bytes, and the transfer amount in the TCP Vegas flow as the second TCP flow is 2176 bytes. . Therefore, as shown in FIGS. 29 and 32, in the eighth simulation, the sum of the transfer amounts in the first TCP flow and the second TCP flow is 1,0027 bytes, and the absolute value of the difference is 5675.
第15のシミュレーションでは、図29に示すように、第1のTCPフローとしてのTCP Vegasフローにおける転送量が3320バイトであり、第2のTCPフローとしてのTCP Renoフローにおける転送量が3700バイトである。従って、図29や図32に示すように、第15のシミュレーションでは、第1のTCPフローと第2のTCPフローにおける転送量の和が7020バイトであり、差の絶対値が380である。 In the fifteenth simulation, as shown in FIG. 29, the transfer amount in the TCP Vegas flow as the first TCP flow is 3320 bytes, and the transfer amount in the TCP Reno flow as the second TCP flow is 3700 bytes. . Therefore, as shown in FIGS. 29 and 32, in the fifteenth simulation, the sum of the transfer amounts in the first TCP flow and the second TCP flow is 7020 bytes, and the absolute value of the difference is 380.
また、図30に示すように、第9のシミュレーションでは、第1のTCPフローとしての第1の第1変形TCP Saltフローにおける転送量が3849バイトであり、第2のTCPフローとしての第2の第1変形TCP Saltフローにおける転送量が4397バイトである。従って、図30や図32に示すように、第9のシミュレーションでは、第1のTCPフローと第2のTCPフローにおける転送量の和が8246バイトであり、差の絶対値が548である。 Also, as shown in FIG. 30, in the ninth simulation, the transfer amount in the first first modified TCP Salt flow as the first TCP flow is 3849 bytes, and the second TCP flow as the second TCP flow. The transfer amount in the first modified TCP Salt flow is 4397 bytes. Therefore, as shown in FIGS. 30 and 32, in the ninth simulation, the sum of the transfer amounts in the first TCP flow and the second TCP flow is 8246 bytes, and the absolute value of the difference is 548.
第10のシミュレーションでは、図30に示すように、第1のTCPフローとしての第1の第2変形TCP Saltフローにおける転送量が3818バイトであり、第2のTCPフローとしての第2の第2変形TCP Saltフローにおける転送量が4462バイトである。従って、図30や図32に示すように、第10のシミュレーションでは、第1のTCPフローと第2のTCPフローにおける転送量の和が8280バイトであり、差の絶対値が644である。 In the tenth simulation, as shown in FIG. 30, the transfer amount in the first second modified TCP Salt flow as the first TCP flow is 3818 bytes, and the second second as the second TCP flow. The transfer amount in the modified TCP Salt flow is 4462 bytes. Therefore, as shown in FIGS. 30 and 32, in the tenth simulation, the sum of the transfer amounts in the first TCP flow and the second TCP flow is 8280 bytes, and the absolute value of the difference is 644.
第11のシミュレーションでは、図30に示すように、第1のTCPフローとしての第1のTCP Saltフローにおける転送量が3960バイトであり、第2のTCPフローとしての第2のTCP Saltフローにおける転送量が4273バイトである。従って、図30や図32に示すように、第11のシミュレーションでは、第1のTCPフローと第2のTCPフローにおける転送量の和が8233バイトであり、差の絶対値が313である。 In the eleventh simulation, as shown in FIG. 30, the transfer amount in the first TCP Salt flow as the first TCP flow is 3960 bytes, and the transfer in the second TCP Salt flow as the second TCP flow is performed. The amount is 4273 bytes. Therefore, as shown in FIGS. 30 and 32, in the eleventh simulation, the sum of the transfer amounts in the first TCP flow and the second TCP flow is 8233 bytes, and the absolute value of the difference is 313.
さらに、図31に示すように、第12のシミュレーションでは、第1のTCPフローとしての第1変形TCP Saltフローにおける転送量が4743バイトであり、第2のTCPフローとしてのTCP Renoフローにおける転送量が3352バイトである。従って、図31や図32に示すように、第12のシミュレーションでは、第1のTCPフローと第2のTCPフローにおける転送量の和が8095バイトであり、差の絶対値が1391である。 Further, as shown in FIG. 31, in the twelfth simulation, the transfer amount in the first modified TCP Salt flow as the first TCP flow is 4743 bytes, and the transfer amount in the TCP Reno flow as the second TCP flow. Is 3352 bytes. Therefore, as shown in FIGS. 31 and 32, in the twelfth simulation, the sum of the transfer amounts in the first TCP flow and the second TCP flow is 8095 bytes, and the absolute value of the difference is 1391.
第13のシミュレーションでは、図31に示すように、第1のTCPフローとしての第2変形TCP Saltフローにおける転送量が4783バイトであり、第2のTCPフローとしてのTCP Renoフローにおける転送量が3456バイトである。従って、図31や図32に示すように、第13のシミュレーションでは、第1のTCPフローと第2のTCPフローにおける転送量の和が8239バイトであり、差の絶対値が1327である。 In the thirteenth simulation, as shown in FIG. 31, the transfer amount in the second modified TCP Salt flow as the first TCP flow is 4783 bytes, and the transfer amount in the TCP Reno flow as the second TCP flow is 3456. It is a byte. Therefore, as shown in FIGS. 31 and 32, in the thirteenth simulation, the sum of the transfer amounts in the first TCP flow and the second TCP flow is 8239 bytes, and the absolute value of the difference is 1327.
第14のシミュレーションでは、図31に示すように、第1のTCPフローとしてのTCP Saltフローにおける転送量が4316バイトであり、第2のTCPフローとしてのTCP Renoフローにおける転送量が3824バイトである。従って、図31や図32に示すように、第14のシミュレーションでは、第1のTCPフローと第2のTCPフローにおける転送量の和が8140バイトであり、差の絶対値が492である。 In the fourteenth simulation, as shown in FIG. 31, the transfer amount in the TCP Salt flow as the first TCP flow is 4316 bytes, and the transfer amount in the TCP Reno flow as the second TCP flow is 3824 bytes. . Therefore, as shown in FIGS. 31 and 32, in the fourteenth simulation, the sum of the transfer amounts in the first TCP flow and the second TCP flow is 8140 bytes, and the absolute value of the difference is 492.
図29乃至図32に示すように、第8のシミュレーションでは、第1のTCPフローとしてのTCP Vegasフローにおける転送量と、第2のTCPフローとしてのTCP Vegasフローにおける転送量の和が、最大となっているが、それらの転送量の差も最大となっている。即ち、TCP Vegasフローどうしが帯域を共有した場合、全体的な転送量は多いが、公平性が悪い。 As shown in FIGS. 29 to 32, in the eighth simulation, the sum of the transfer amount in the TCP Vegas flow as the first TCP flow and the transfer amount in the TCP Vegas flow as the second TCP flow is the maximum. However, the difference in the transfer amount is also the largest. That is, when TCP Vegas flows share a bandwidth, the overall transfer amount is large, but the fairness is poor.
また、第7や第15のシミュレーションでは、第1のTCPフローとしてのTCP RenoフローまたはTCP Vegasフローにおける転送量と、第2のTCPフローとしてのTCP Renoフローにおける転送量の差は小さいが、それらの転送量の和も小さくなっている。即ち、TCP Renoフローどうしや、TCP RenoフローとTCP Vegasフローが帯域を共有した場合、公平性は比較的良いが、全体的な転送量は少なくなる。 In the seventh and fifteenth simulations, the difference between the transfer amount in the TCP Reno flow or TCP Vegas flow as the first TCP flow and the transfer amount in the TCP Reno flow as the second TCP flow is small. The sum of the transfer amount is also small. That is, when the TCP Reno flows, or the TCP Reno flow and the TCP Vegas flow share the bandwidth, the fairness is relatively good, but the overall transfer amount is reduced.
これに対して、第9乃至第14のシミュレーションでは、第1のTCPフローとしての第1変形TCP Saltフロー、第2変形TCP Saltフロー、またはTCP Saltフローにおける転送量と、第2のTCPフローとしての第1変形TCP Saltフロー、第2変形TCP Saltフロー、TCP Saltフロー、またはTCP Renoフローにおける転送量の差は小さいが、それらの転送量の和は比較的大きい。 On the other hand, in the ninth to fourteenth simulations, the transfer amount in the first modified TCP Salt flow, the second modified TCP Salt flow, or the TCP Salt flow as the first TCP flow, and the second TCP flow In the first modified TCP Salt flow, the second modified TCP Salt flow, the TCP Salt flow, or the TCP Reno flow, the difference in transfer amount is small, but the sum of these transfer amounts is relatively large.
即ち、第1変形TCP Saltフロー、第2変形TCP Saltフロー、およびTCP Saltフローどうしや、第1変形TCP Saltフロー、第2変形TCP Saltフロー、およびTCP SaltフローのそれぞれとTCP Renoフローが帯域を共有した場合、利用帯域の公平性が良く、かつ、全体的な転送量が多い。 That is, each of the first modified TCP Salt flow, the second modified TCP Salt flow, and the TCP Salt flow, the first modified TCP Salt flow, the second modified TCP Salt flow, and the TCP Salt flow and the TCP Reno flow have different bandwidths. When shared, the bandwidth used is fair and the overall transfer amount is large.
また、第1変形TCP Saltフロー、第2変形TCP Saltフロー、およびTCP Saltフローどうしが帯域を共有した場合と、第1変形TCP Saltフロー、第2変形TCP Saltフロー、およびTCP SaltフローのそれぞれとTCP Renoフローが帯域を共有した場合とで、全体的な転送量には、ほぼ差がないので、現行のTCP Renoを一度にTCP Saltに移行せず、徐々に移行する場合であっても、問題がないことがわかる。 In addition, when the first modified TCP Salt flow, the second modified TCP Salt flow, and the TCP Salt flow share a bandwidth, and each of the first modified TCP Salt flow, the second modified TCP Salt flow, and the TCP Salt flow There is almost no difference in the total transfer amount when the TCP Reno flow shares the bandwidth, so even if the current TCP Reno does not migrate to TCP Salt at one time, but gradually migrates, It turns out that there is no problem.
さらに、第9乃至第14のシミュレーションにおいて、第1のTCPフローと第2のTCPのフローにおける転送量の和はほぼ同一であるが、差については差がある。具体的には、第9と第10のシミュレーションに比べて、第11のシミュレーションにおける差が小さく、第12と第13のシミュレーションに比べて、第14のシミュレーションにおける差が小さい。即ち、第1変形TCP Saltフロー、第2変形TCP Saltフロー、およびTCP Saltフローの中で、TCP Saltフローが最も公平性が良い。従って、重み係数w0は、利用帯域の公平性を保持するために必要であることがわかる。 Furthermore, in the ninth to fourteenth simulations, the sum of the transfer amounts in the first TCP flow and the second TCP flow is almost the same, but there is a difference in the difference. Specifically, the difference in the eleventh simulation is smaller than that in the ninth and tenth simulations, and the difference in the fourteenth simulation is smaller than in the twelfth and thirteenth simulations. That is, among the first modified TCP Salt flow, the second modified TCP Salt flow, and the TCP Salt flow, the TCP Salt flow has the best fairness. Therefore, it can be seen that the weighting factor w 0 is necessary to maintain the fairness of the used bandwidth.
なお、マルチメディアデータを配信する場合、通信装置20は、TCP Saltにしたがって決定された輻輳ウィンドウcwndに基づいて、インターネットの帯域を割り当てるとともに、特許文献3に記載されている制御方法で、インターネットの状態に応じて個々の送信データの送信間隔を決定し、その送信間隔で送信データを、割り当てられた帯域を用いて送信するようにしてもよい。
When distributing multimedia data, the
また、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 Further, in this specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the described order, but is not necessarily performed in time series. Or the process performed separately is also included.
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.
20 通信装置, 63 輻輳ウィンドウ決定部, 64 送信部 20 communication device, 63 congestion window determination unit, 64 transmission unit
Claims (4)
直前の輻輳ウィンドウとRTTの履歴を用いて、新たな輻輳ウィンドウを予測する予測手段と、
予測された前記輻輳ウィンドウを用いて、前記ネットワークの帯域を割り当て、その帯域でデータを送信する送信手段と
を備える通信装置。 In a communication device that performs communication via a network,
A prediction means for predicting a new congestion window using the previous congestion window and RTT history,
A communication apparatus comprising: a transmission unit that allocates a bandwidth of the network using the predicted congestion window and transmits data in the bandwidth.
請求項1に記載の通信装置。 The communication apparatus according to claim 1, wherein the prediction unit predicts a new congestion window using the immediately preceding congestion window and a history of the reciprocal of the RTT.
請求項2に記載の通信装置。 The communication apparatus according to claim 2, wherein the prediction unit linearly predicts a new congestion window using the immediately previous congestion window and a history of the reciprocal of the RTT.
直前の輻輳ウィンドウとRTTの履歴を用いて、新たな輻輳ウィンドウを予測し、
予測された前記輻輳ウィンドウを用いて、前記ネットワークの帯域を割り当て、その帯域でデータを送信する
ステップを含む通信方法。 In a communication method of a communication device that performs communication via a network,
Predict a new congestion window using the previous congestion window and RTT history,
A communication method including the steps of allocating a bandwidth of the network using the predicted congestion window and transmitting data in the bandwidth.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007186566A JP4942040B2 (en) | 2007-07-18 | 2007-07-18 | Communication apparatus and communication method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007186566A JP4942040B2 (en) | 2007-07-18 | 2007-07-18 | Communication apparatus and communication method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009027303A true JP2009027303A (en) | 2009-02-05 |
JP4942040B2 JP4942040B2 (en) | 2012-05-30 |
Family
ID=40398722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007186566A Expired - Fee Related JP4942040B2 (en) | 2007-07-18 | 2007-07-18 | Communication apparatus and communication method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4942040B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013125096A1 (en) * | 2012-02-24 | 2013-08-29 | 株式会社日立製作所 | Communication device |
JP2018507666A (en) * | 2015-03-03 | 2018-03-15 | オパンガ ネットワークス,インコーポレイテッド | System and method for coordinating data flow |
CN112383485A (en) * | 2020-10-30 | 2021-02-19 | 新华三技术有限公司 | Network congestion control method and device |
JPWO2021064768A1 (en) * | 2019-09-30 | 2021-04-08 | ||
WO2021064766A1 (en) * | 2019-09-30 | 2021-04-08 | 日本電気株式会社 | Control device, method and system |
JPWO2021064767A1 (en) * | 2019-09-30 | 2021-04-08 | ||
US11258531B2 (en) | 2005-04-07 | 2022-02-22 | Opanga Networks, Inc. | System and method for peak flow detection in a communication network |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1023064A (en) * | 1996-07-01 | 1998-01-23 | Nippon Telegr & Teleph Corp <Ntt> | Automatic distribution-type traffic flow control method |
JP2000209224A (en) * | 1999-01-18 | 2000-07-28 | Chokosoku Network Computer Gijutsu Kenkyusho:Kk | Flow control method |
JP2005244517A (en) * | 2004-02-25 | 2005-09-08 | National Institute Of Information & Communication Technology | Unit, method, and program for data transmission control |
JP2006067109A (en) * | 2004-08-25 | 2006-03-09 | Ntt Docomo Inc | Communication terminal,communication system, and congestion control method |
JP2006173961A (en) * | 2004-12-15 | 2006-06-29 | Hiroyasu Obata | Tcp convergence control system in wide band, high delay radio network |
JP2006217235A (en) * | 2005-02-03 | 2006-08-17 | Nippon Telegr & Teleph Corp <Ntt> | Congestion control method and transmitting terminal |
-
2007
- 2007-07-18 JP JP2007186566A patent/JP4942040B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1023064A (en) * | 1996-07-01 | 1998-01-23 | Nippon Telegr & Teleph Corp <Ntt> | Automatic distribution-type traffic flow control method |
JP2000209224A (en) * | 1999-01-18 | 2000-07-28 | Chokosoku Network Computer Gijutsu Kenkyusho:Kk | Flow control method |
JP2005244517A (en) * | 2004-02-25 | 2005-09-08 | National Institute Of Information & Communication Technology | Unit, method, and program for data transmission control |
JP2006067109A (en) * | 2004-08-25 | 2006-03-09 | Ntt Docomo Inc | Communication terminal,communication system, and congestion control method |
JP2006173961A (en) * | 2004-12-15 | 2006-06-29 | Hiroyasu Obata | Tcp convergence control system in wide band, high delay radio network |
JP2006217235A (en) * | 2005-02-03 | 2006-08-17 | Nippon Telegr & Teleph Corp <Ntt> | Congestion control method and transmitting terminal |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11606163B2 (en) | 2005-04-07 | 2023-03-14 | Opanga Networks, Inc. | System and method for peak flow detection in a communication network |
US11258531B2 (en) | 2005-04-07 | 2022-02-22 | Opanga Networks, Inc. | System and method for peak flow detection in a communication network |
WO2013125096A1 (en) * | 2012-02-24 | 2013-08-29 | 株式会社日立製作所 | Communication device |
JP5651805B2 (en) * | 2012-02-24 | 2015-01-14 | 株式会社日立製作所 | Communication device |
US9231829B2 (en) | 2012-02-24 | 2016-01-05 | Hitachi, Ltd. | Communication device |
JP2018507666A (en) * | 2015-03-03 | 2018-03-15 | オパンガ ネットワークス,インコーポレイテッド | System and method for coordinating data flow |
US10834002B2 (en) | 2015-03-03 | 2020-11-10 | Opanga Networks, Inc. | Systems and methods for pacing data flows |
US12081446B2 (en) | 2015-03-03 | 2024-09-03 | Opanga Networks, Inc. | Systems and methods for pacing data flows |
US11546268B2 (en) | 2015-03-03 | 2023-01-03 | Opanga Networks, Inc. | Systems and methods for pacing data flows |
WO2021064768A1 (en) * | 2019-09-30 | 2021-04-08 | 日本電気株式会社 | Control device, control method, and system |
WO2021064767A1 (en) * | 2019-09-30 | 2021-04-08 | 日本電気株式会社 | Control device, method, and program |
JPWO2021064766A1 (en) * | 2019-09-30 | 2021-04-08 | ||
JPWO2021064767A1 (en) * | 2019-09-30 | 2021-04-08 | ||
WO2021064766A1 (en) * | 2019-09-30 | 2021-04-08 | 日本電気株式会社 | Control device, method and system |
JPWO2021064768A1 (en) * | 2019-09-30 | 2021-04-08 | ||
JP7251646B2 (en) | 2019-09-30 | 2023-04-04 | 日本電気株式会社 | Controller, method and system |
JP7251647B2 (en) | 2019-09-30 | 2023-04-04 | 日本電気株式会社 | Control device, control method and system |
JP7259978B2 (en) | 2019-09-30 | 2023-04-18 | 日本電気株式会社 | Controller, method and system |
CN112383485B (en) * | 2020-10-30 | 2022-08-19 | 新华三技术有限公司 | Network congestion control method and device |
CN112383485A (en) * | 2020-10-30 | 2021-02-19 | 新华三技术有限公司 | Network congestion control method and device |
Also Published As
Publication number | Publication date |
---|---|
JP4942040B2 (en) | 2012-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4942040B2 (en) | Communication apparatus and communication method | |
US7136353B2 (en) | Quality of service management for multiple connections within a network communication system | |
US8873385B2 (en) | Incast congestion control in a network | |
CN101895466B (en) | Method for reducing influence of data packet disorder on SCTP multipath transmission | |
US11171862B2 (en) | Multi-subflow network transmission method and apparatus | |
CN106160953B (en) | A kind of transmission method based on learning-oriented energy efficiency model | |
JP2004538719A (en) | Method for providing a non-linear, highly scalable increase-decrease congestion control mechanism | |
RU2510981C1 (en) | High-speed communication system and high-speed communication method | |
US8570864B2 (en) | Kernel awareness of physical environment | |
CN105024940A (en) | Link adaptation-based heterogeneous network TCP congestion control method | |
US9510354B2 (en) | Method and a device for low intrusive fast estimation of the bandwidth available between two IP nodes | |
JP5187404B2 (en) | Encoding apparatus, encoding method, and encoding program | |
KR20100096082A (en) | Wireless transmission rate control method | |
CN106878192B (en) | Data scheduling method of self-adaptive MPTCP | |
US20240098155A1 (en) | Systems and methods for push-based data communications | |
CN110808884A (en) | Network congestion control method | |
US9584420B2 (en) | Switching between loss-based and delay-based mode for real-time media congestion controllers | |
EP3582455B1 (en) | Method and apparatus for multiple subflows network transmission | |
KR101837637B1 (en) | Streaming method based on Client-side ACK-regulation and apparatus thereof | |
JP5146013B2 (en) | Communication apparatus and communication method | |
Jiang et al. | Adaptive low-priority congestion control for high bandwidth-delay product and wireless networks | |
Kadhum et al. | Congestion-aware TCP-friendly system for multimedia transmission based on UDP | |
WO2019124290A1 (en) | Transmit data volume control device, method, and recording medium | |
Das et al. | A Dynamic Algorithm for Optimization of Network Traffic through Smart Network Switch Data Flow Management | |
KR102131427B1 (en) | Method and apparatus for performing a congestion control in stream control transmission protocol |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100702 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111201 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120216 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120223 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150309 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |